Refine
Year of publication
- 2015 (126) (remove)
Document Type
- Doctoral Thesis (126) (remove)
Language
- German (126) (remove)
Is part of the Bibliography
- yes (126)
Keywords
- Schriftspracherwerb (2)
- Wirtschaft (2)
- thermoresponsive (2)
- Adhäsionsproteine (1)
- Alfred Döblin (1)
- Alkohol (1)
- Analphabetismus (1)
- Apis mellifera (1)
- Arbeitsteilung (1)
- Arthur Ewert (1)
Institute
- Wirtschaftswissenschaften (16)
- Sozialwissenschaften (13)
- Bürgerliches Recht (11)
- Institut für Chemie (9)
- Institut für Ernährungswissenschaft (9)
- Öffentliches Recht (9)
- Institut für Biochemie und Biologie (7)
- Department Erziehungswissenschaft (6)
- Institut für Germanistik (6)
- Historisches Institut (5)
- Department Psychologie (4)
- Institut für Künste und Medien (4)
- Institut für Physik und Astronomie (4)
- Institut für Romanistik (4)
- Institut für Umweltwissenschaften und Geographie (3)
- Strafrecht (3)
- Department Sport- und Gesundheitswissenschaften (2)
- Extern (2)
- Institut für Informatik und Computational Science (2)
- Institut für Mathematik (2)
- Department Grundschulpädagogik (1)
- Department Musik und Kunst (1)
- Institut für Religionswissenschaft (1)
- Juristische Fakultät (1)
- Klassische Philologie (1)
- Strukturbereich Bildungswissenschaften (1)
Die Populärkultur hat mit der Sitcom ein eigentümliches Genre im Fernsehen etabliert. Während Fernsehserien oft hinausblicken in jene Bereiche, die sich zum Teil drastisch von der Lebenswelt des Zuschauers unterscheiden, widersetzt sich die Sitcom seit über einem
halben Jahrhundert dieser Blickrichtung. Stattdessen lenkt sie die populärkulturelle Aufmerksamkeit auf Themen, die diesseits unseres
lebensweltlichen Horizonts verortet sind und liefert Alltagsbeschreibungen in pointierter Form. Damit bündelt sie eine Fülle von gesellschaftlichen Relevanzen und situiert sie dort, wo sie zugleich ihr Publikum findet: zu Hause, in den eigenen vier Wänden.
Situation Comedies erweisen sich nicht nur deswegen als soziologische Erkenntnismittel, die – gerade weil es sich bei ihnen um Wirklichkeitskonstruktionen zweiter Ordnung handelt – normativ aufgeladene Bilder des Alltags zeigen. Im Genre der Sitcom wird dem Alltag als Sujet gleichsam ein medialer Ort innerhalb der Populärkultur zugewiesen.
Die damit einhergehenden soziologischen und medialen Facetten ergründet die vorliegende Studie – als erste deutschsprachige Monografie zu dem Thema – im Hinblick auf verschiedene Topoi wissenssoziologisch und hermeneutisch am Beispiel ausgewählter Sitcoms der zurückliegenden 20 Jahre. Als beeindruckend erweisen sich hierbei die tiefgreifenden und bildhaften Analysen der Sitcoms und ihre Rückbindungen an wissens-, kultur- und allgemeinsoziologische Erkenntnisse. Die Sitcom erscheint als Unter-haltungsformat, das nicht nur Alltagsgeschichten erzählt, sondern die Produktions- und Rezeptionsbedingungen dieser Geschichten immer auch miterzählt. Es handelt sich mithin um mediale Artefakte, die gleichsam als unterhaltsame Mittel gesellschaftlicher Wahrnehmung und medialer Selbstwahrnehmung auftreten.
Angelegt als qualitative Studie an der Schnittstelle von Medien- und Sozialwis-senschaften, fügt das Buch dem gegenwärtigen Diskurs um Populärkultur, Fernsehserien und Kulturwissenschaften eine soziologisch fundierte Perspektive hinzu, die für Sozial- und Medienwissenschaftler ebenso anregend ist wie für jene, die mit besonderem Augenmerk auf die gegenwärtige akademische Rezeption von TV-Serien schauen – kenntnisreich dargelegt in einer klaren und zugänglichen Sprache
Symbolische Bedeutungen sind für den Erfolg von Marken heutzutage unerlässlich, denn Produkte lassen sich in postmodernen Konsumgesellschaften meist nicht mehr ausschließlich durch funktionale Leistungsunterschiede vom Wettbewerb differenzieren. Vielmehr sollten Marken zudem über einen signifikanten Zusatznutzen verfügen, welcher grundsätzlich sozialpsychologischer Natur ist. Dieser in der Markenpersönlichkeit verdichtete symbolische Kern spricht die zentralen menschlichen Bedürfnisse nach Selbstdefinition und Selbstausdruck an, da Individuen sich als „soziale Tiere“ grundlegend über die Zugehörigkeit zu sozialen Gruppen definieren. Einstellungen relevanter Bezugspersonen zum eigenen Selbstbild sind fundamental für die persönliche Standortbestimmung. Genauso leiten Konsumenten symbolische Markenbedeutungen von ihren Bezugsgruppen ab. Individuen evaluieren demnach permanent, inwiefern die wahrgenommene Markenpersönlichkeit zum aktuellen bzw. angestrebten Selbstkonzept passt. Diese dargestellten Phänomene unterliegen dem kulturellen Einfluss der jeweiligen Gesellschaft, in der sie sich herausbilden. Die symbolischen Bedeutungen von Selbstbildern und Marken formen sich also zwischen Kulturen bspw. unter unterschiedlich stark geartetem sozialem Einfluss.
Die Untersuchung geht demnach der Frage auf den Grund, inwiefern die soziale Umgebung Einfluss auf die Wahrnehmung symbolischer Markenaspekte und deren wahrgenommener Kongruenz zum Selbstkonzept von Konsumenten ausübt. Darüber hinaus eruiert der Verfasser intensiv, ob und in welchem Umfang die Empfänglichkeit für die verschiedenen Facetten sozialen Einflusses von der Enkulturation des Konsumenten abhängt.
Es werden somit Forderungen aus Marketing- und Konsumentenverhaltensforschung adressiert, wonach die sozialen sowie die kulturellen Einflusskomponenten stärker zu berücksichtigen sind, um ein vollständigeres Bild von Konsumentscheidungen zu erlangen.
Die zahlreichen theoretischen und empirischen Erkenntnisse der Studie weisen auf wichtige Implikationen für die intra- und interkulturelle Segmentierung von Zielgruppen hin. Empfehlungen für die strategische Positionierung von symbolischen Markenkernen und deren Kommunikation werden ebenfalls geliefert.
Fiktion im Historischen
(2015)
Lucans unter Nero entstandenes Epos über den römischen Bürgerkrieg zielt weniger auf eine historisch korrekte Darstellung ab als auf eine Deutung in weitaus größerem Maße. Dafür bricht der Autor mit üblichen Gattungskonventionen, obwohl er typische Elemente des Genres nutzt. Entscheidend für das Verständnis ist die Bildsprache mit ihren Gleichnissen, Kurzvergleichen, Metaphern und Exempla, die bisher zu wenig Beachtung fanden und im Anhang erstmals vollständig erfaßt sind. So gleicht etwa Crassus einem “Isthmus”, der Caesar und Pompeius trennt, der alternde Pompeius einer “stürzenden Eiche” oder Caesar durch sein schnelles entschiedenes Handeln einem “Blitz”. Solche Formen werden planvoll eingesetzt und verknüpft, um die zentrale Rolle der Akteure im Bürgerkrieg zu kommunizieren. Dabei kommt Caesar, Pompeius, Cato, den Soldaten, dem Volk und einigen Nebenfiguren mehr Bedeutung zu als in anderen Berichten und epischen Prätexten. Der Blick des Lesers soll weniger auf das Geschehen als auf das Verhalten der Menschen gelenkt werden, wozu einzelne Geschehensabläufe auffallend anders als in anderen Quellen gewichtet und gestaltet sind.
Zellbasierte heterologe Expressionssysteme bieten ein einfaches und schnelles Verfahren, um neue Süßstoffe oder Süßverstärker zu finden. Unter Verwendung eines solchen Testsystems, konnte ich in Zusammenarbeit mit der Symrise AG, Holzminden und dem Institut für Pflanzenbiochemie in Halle/Saale die vietnamesische Pflanze Mycetia balansae als Quelle eines neuen Süßstoffs identifizieren. Deren Hauptkomponenten, genannt Balansine, aktivieren spezifisch den humanen Süßrezeptor. Chimäre Rezeptoren zeigten, dass die amino-terminalen Domänen der Süßrezeptoruntereinheiten, welche ein Großteil der Liganden des Süßrezeptors binden, für dessen Aktivierung durch Balansin A nicht notwendig sind.
Voraussetzung für die Anwendung zellbasierter Testsysteme zum Auffinden neuer Süßstoffe ist jedoch, dass süße Substanzen gesichert identifiziert werden, während nicht süße Substanzen zuverlässig keine Rezeptoraktivierung aufweisen. Während in HEK293 TAS1R2 TAS1R3To Galpha15i3-Zellen Süßrezeptoraktivierung gegenüber nicht süß schmeckenden Substanzen beobachtet wurde, konnte mit den HEK293PEAKrapid Galpha15-Zellen ein zuverlässiges Testsystem identifiziert, welches den Süßgeschmack der untersuchten Substanzen widerspiegelte.
Es fanden sich keine Hinweise, dass akzessorische Proteine oder verwandte Rezeptoren des Süßrezeptors das unterschiedliche Verhalten der Zellen verursachen. Es konnte gezeigt werden, dass die Verwendung unterschiedlicher G-Proteine die Signalamplituden des Süßrezeptors beeinflusst, die Unterschiede zwischen den Zellsystemen jedoch nicht vollständig erklärt. Keine der untersuchten Galpha-Proteinchimären spiegelte die intrinsische Süße der Substanzen wider.
Wenn auch nicht ursächlich für die Diskrepanz zwischen Süßrezeptoraktivierung in vitro und Süßgeschmack in vivo, so weisen die Ergebnisse dieser Arbeit auf eine Interaktion der Süßrezeptoruntereinheiten mit dem humanen Calcium-sensing Rezeptor hin. Vanillin und Ethylvanillin konnten als neue Agonisten des Calcium-sensing Rezeptors identifiziert werden.
Wie die vorliegende Arbeit zeigt, können sich kleine Unterschiede im Zellhintergrund deutlich auf die Funktionsweise heterolog exprimierter Rezeptoren auswirken. Dies zeigt wie wichtig die Wahl der Zellen für solche Screeningsysteme ist.
Der Na⁺-K⁺-2Cl⁻-Kotransporter (NKCC2) wird im distalen Nephron der Niere exprimiert. Seine Verteilung umfasst die Epithelien der medullären und kortikalen Teile der dicken aufsteigenden Henle-Schleife (Thick ascending limb, TAL) und die Macula densa. Resorptiver NaCl-Transport über den NKCC2 dient dem renalen Konzentrierungsmechanismus und reguliert systemisch auch Volumenstatus und Blutdruck. Die Aktivität des NKCC2 ist mit der Phosphorylierung seiner N-terminalen Aminosäurereste Serin 126 und Threonin 96/101 verbunden. Vermittelt wird diese durch die homologen Kinasen SPAK (SPS-related proline/alanine-rich kinase) und OSR1 (Oxidative stress responsive kinase 1), die hierzu ihrerseits phosphoryliert werden müssen. Der regulatorische Kontext dieser Kinasen ist mittlerweile gut charakterisiert. Über Mechanismen und Produkte, die den NKCC2 deaktivieren, war hingegen weniger bekannt. Ziel der Arbeit war daher zu untersuchen, welche Wege zur Deaktivierung des Transporters führen. Der intrazelluläre Sortierungsrezeptor SORLA (Sorting-protein-related receptor with A-type repeats) war zuvor in seiner Bedeutung für das Nephron charakterisiert worden. Ein SORLA-defizientes Mausmodell weist unter anderem eine stark verringerte NKCC2-Phosphorylierung auf. Unter osmotischem Stress können SORLA-defiziente Mäuse ihren Urin weniger effizient konzentrieren. Meine Resultate zeigen mit hochauflösender Technik, dass SORLA apikal im TAL lokalisiert ist und dass mit NKCC2 eine anteilige Kolokalisation besteht. Unter SORLA Defizienz war die für die NKCC2 Aktivität maßgebliche SPAK/OSR1-Phosphorylierung gegenüber dem Wildtyp nicht verändert. Jedoch war die ebenfalls im TAL exprimierte Phosphatase Calcineurin Aβ (CnAβ) per Western blot um das zweifache gesteigert. Parallel hierzu wurde immunhistochemisch die Kolokalisation von verstärktem CnAβ-Signal und NKCC2 bestätigt. Beide Befunde geben zusammen den Hinweis auf einen Bezug zwischen der reduzierten NKCC2-Phosphorylierung und der gesteigerten Präsenz von CnAβ bei SORLA Defizienz. Die parallel induzierte Überexpression von SORLA in HEK-Zellen zeigte entsprechend eine Halbierung der CnAβ Proteinmenge. SORLA steuert demzufolge sowohl die Abundanz als auch die zelluläre Verteilung der Phosphatase. Weiterhin ließ sich die Interaktion zwischen CnAβ und SORLA (intrazelluläre Domäne) mittels Co-Immunpräzipitation bzw. GST-pulldown assay nachweisen. Auch die Interaktion zwischen CnAβ und NKCC2 wurde auf diesem Weg belegt. Da allerdings weder SORLA noch NKCC2 ein spezifisches Bindungsmuster für CnAβ aufweisen, sind vermutlich intermediäre Adapterproteine bei ihrer Bindung involviert. Die pharmakologische Inhibition von CnAβ mittels Cyclosporin A (CsA; 1 h) führte bei SORLA Defizienz zur Normalisierung der NKCC2-Phosphorylierung. Entsprechend führte in vitro die Gabe von CsA bei TAL Zellen zu einer 7-fach gesteigerten NKCC2-Phosphorylierung. Zusammenfassend zeigen die Ergebnisse, dass die Phosphatase CnAβ über ihre Assoziation mit NKCC2 diesen im adluminalen Zellkompartiment deaktivieren kann. Gesteuert wird dieser Vorgang durch die Eigenschaft von SORLA, CnAβ apikal zu reduzieren und damit die adluminale Phosphorylierung und Aktivität von NKCC2 zu unterstützen. Da Calcineurin-Inhibitoren derzeit die Grundlage der immunsupprimierenden Therapie darstellen, haben die Ergebnisse eine klinische Relevanz. Angesichts der Co-Expression von SORLA und CnAβ in verschiedenen anderen Organen können die Ergebnisse auch über die Niere hinaus Bedeutung erlangen.
Exzentrik und Bürgertum
(2015)
Es wird eine verzweigte Intellektuellen- und Ideengeschichte um 1900 aufgeschlagen. Der Sozialphilosoph – heute aber vor allem als Schwiegersohn Wagners, Bayreuther Ideologe und Vordenker Hitlers bekannte – Chamberlain pflegte intensive Beziehungen zu jüdischen Intellektuellen. Erstaunliche Konstellationen zwischen Rassentheorie, Kulturreform, Kunst und Wissenschaft werden in einer Zeit lebendig, in der sich antisemitische und zionistische Anschauungen konsolidierten, revolutionär Konservative auf avantgardistische Künstler trafen und sich reformbewegte Sonnenanbeter gleichzeitig links- und rechtspopulistisch orientierten.
Kritische Untersuchungen zu Chamberlain und Persönlichkeiten jüdischer Herkunft sind ein Desiderat. Die Analyse und Auswertung dieser unbekannten Korrespondenzen und Hintergründe zielen in den Kernbereich deutsch-jüdischer Forschung. Das Buch zeigt Chamberlain, der in der kulturellen Szene Wiens und Bayreuths zwischen 1890 und 1920 eine Schlüsselfigur darstellt, im feingeistigen Austausch mit jüdischen Intellektuellen wie Karl Kraus, Walther Rathenau, Maximilian Harden, Otto Weininger und Martin Buber.
Es werden ideologische Verschränkungen in der Moderne und daraus resultierende Verhaltensmuster herausragender Persönlichkeiten aufgedeckt, die in Bezug auf antisemitische Verkrümmungen und sogenannten jüdischen Selbsthass eine lange Vorgeschichte des »Dritten Reiches« belegen.
Redewiedergabeverfahren potenzieren das Moment der sozialen Positionierung in der Interaktion. Charaktere, die zum Beispiel in Erzählungen oder Argumentationen ‚zu Wort kommen‘, werden als Protagonisten und Antagonisten, Täter und Opfer, angeberisch und zurückhaltend konstruiert. Das Bild, das sich Gesprächspartner voneinander machen, wird aber nicht nur durch solche Positionierungen innerhalb der erzählten Welt, sondern auch durch ihre aktuelle Performance als Interaktionsspartner geprägt. All diese Positionierungsaktivitäten stehen in Wechselbeziehung zueinander und können auch aufschlussreiche Spannungsverhältnisse aufweisen.
Ausgehend von einer formalen Beschreibung der verwendeten Mittel zeigt die Analyse narrativ-biographisch geprägter Gespräche unter jungen Erwachsenen, wie in der Interaktion soziale Wirklichkeit ko-konstruiert wird, indem konkret oder stereotyp ‚fremde‘ Kontexte aufgerufen und als Kontrastfolie für die eigene Identitätskonstruktion genutzt werden.
Die vergleichende Arbeit beschäftigt sich mit der Bürgerbeteiligung in Städten in Deutschland und Frankreich. In den letzten 20 Jahren haben sich die Formen lokaler Demokratie immer wieder verändert und sich den örtlichen Gegebenheiten angepasst. Das Interesse der Bürger, Verwaltung und politisch gewählten Vertreter an Partizipation wächst stetig . Das heißt aber auch, dass sich diese 3 Akteure den neuen Strukturen anpassen und eigene Strategien entwickeln müssen. Die demokratischen Formen der kooperativen bzw. partizipativen Demokratie werden immer häufiger angewandt. Diese Arbeit evaluiert die verschiedenen Bürgerbeteiligungsinstrumente in Frankreich und Deutschland in dem zwischen Input, Output und Outcome unterschieden wird. Insbesondere die Bürgerhaushalte, Beiräte und Quartiersräte werden genauer betrachtet. Die Ergebnisse zeigen erste Hinweise in welche demokratische Richtung sich die deutschen Städte künftig entwickeln.
Was machen Schulleiter tatsächlich und welche Faktoren beeinflussen diese ausgeführten Tätigkeiten?
(2015)
Während die theoretische Arbeitsbeschreibung und das Rollenbild von Schulleitern vielfach in der Forschung aufgegriffen wurde, gibt es – wie übrigens im gesamten Bereich Public Management – nur wenige empirische Untersuchungen, die aus einer betriebswirtschaftlichen Managementbetrachtung heraus untersuchen, was Schulleiter wirklich machen, d.h. welchen Tätigkeiten und Aufgaben die genannten Personen nachgehen und welche Unterschiede sich feststellen lassen. Besondere Relevanz erhält die Thematik durch das sich wandelnde Aufgabenbild des Schulleiters, getrieben insbesondere durch die zusätzliche Autonomie der Einzelschule, aber auch durch die Fokussierung auf die Performance und Wirksamkeit der Einzelschule und verbunden damit, die Abhängigkeit dieser von der Arbeit des Schulleiters. Hier bildet das Verständnis der Aufgaben und Tätigkeiten eine wichtige Grundlage, die jedoch unzureichend erforscht ist. Mit Hilfe einer explorativen Beobachtung von 15 Schulleiterinnen und Schulleitern und damit einer empirischen Untersuchung von insgesamt 7591 Arbeitsminuten und 774 Aktivitäten in Kombination mit ausführlichen qualitativen, halboffenen Interviews wird durch diese Arbeit eine detaillierte Betrachtung des tatsächlichen Schulleitungsmanagementhandelns möglich. So wird sichtbar, dass sich die Aufgaben und Tätigkeiten der Schulleiter in zentralen Bereichen unterscheiden und eine Typologisierung entlang von Rollenbeschreibungen und Leadership Behavior zu kurz greift. Es konnte zum ersten Mal in dieser Ausführlichkeit innerhalb des deutschen Schulsystems gezeigt werden, dass Schulleiter Kommunikationsmanager sind. Darüber hinaus entwickelt das hier dokumentierte Forschungsvorhaben Hypothesen zu den Faktoren, die einen Einfluss auf die Aufgaben und Tätigkeiten haben und beschreibt dezidiert Implikationen, die diese Erkenntnisse auf die Tätigkeit des Schulleiters, die weitere Forschung aber auch die politische Rahmengestaltung und, damit verbunden, die Weiterentwicklung des Schulsystems haben.
Kaum eine Erfindung veränderte die Kriegführung mehr als das Flugzeug. Vom ersten Motorflug bis zu den ersten Flächenbombardements vergingen nur wenige Jahre. In dieser Zeit richtete sich die englische Luftwaffe konzeptionell anhand ihrer Erfahrungen im Irak aus.
Inwieweit prägten die Erfahrungen während der Aufstandsbekämpfung an der Peripherie des Empire den strategischen Bombenkrieg gegen Deutschland? Es werden die Kampagnen im Irak der 1920er Jahre und der Luftkrieg gegen das »Dritte Reich« betrachtet, die sich in Umfang, Intensität und technischen Rahmenbedingungen zwar erheblich unterschieden. Allerdings bildeten die in beiden Kampagnen eingesetzten Soldaten der RAF das Bindeglied. Mit Hilfe kognitionspsychologischer Methoden und der Analyse von Akteursnetzwerken wird gezeigt, wie die Operationen im Irak die RAF-Offiziere prägten und die Bomberoffensive gegen das Deutsche Reich beeinflussten.
Straßen im Fluss
(2015)
Auch in historischer Zeit waren Straßen, Wege und Verkehrsbahnen Orte innovativer Entwicklungen der Technik, der Mobilität sowie der Infrastruktur. Anders als die ältere Forschung und populären Vorstellungen meinen, währten die Umgestaltungen der Kulturlandschaft seit dem 13. Jahrhundert bemerkenswert lange.
Diese »etwas andere« Mittelalter-Geschichte mit ihrer epochenübergreifenden Wirkung zeigt in vielen Details die vorliegende Studie. Sie schöpft aus den bewährten Methoden der Altweg-, Binnenschifffahrts- und Infrastrukturgeschichtsforschung und entdeckt dabei auf innovative Weise »Straßen im Fluss« als Modell. Mit Blick auf den Verkehrsraum zwischen Elbe und Oder – vom Spreewald über Berlin-Cölln und Brandenburg an der Havel bis nach Havelberg – gelingt erstmals eine zwischen dem mittelalterlichen Landesausbau und dem 16. Jahrhundert angesiedelte Geschichte der beiden Hauptflüsse Spree und Havel sowie ihrer Nebenläufe.
Der Autor rückt das Leben der Menschen am und auf dem Fluss ins Licht und beschreibt quellennah, wie vor allem die Städte, aber auch geistliche Institutionen wie Domstift oder Klöster an dem Wandel der Kulturlandschaft zu einem mannigfach »vernetzten« Verkehrsraum stark beteiligt waren. Die hier entwickelten Strukturen bewährten sich und besaßen Vorbildcharakter, so dass in späteren Jahrhunderten insbesondere Städte an diese mittelalterlichen Verkehrswirtschaftsprojekte anknüpften.
Die vorliegende Arbeit beschäftigt sich mit der ertrag- und schenkungsteuerlichen Behandlung von Vermögensübertragungen, die disquotal, also nicht dem Beteiligungsverhältnis entsprechend, erfolgen. Bezogen auf das Verhältnis zwischen einer GmbH und ihren Gesellschaftern untersucht die Arbeit die Motive für disquotale Leistungen, die möglichen Vermögensübertragungstatbestände und deren tatsächliche Ausgestaltung. Gewollte disquotale Vermögensübertragungen lassen sich am besten mit verdeckten Gewinnausschüttungen und verdeckten Einlagen erreichen. Die gesellschaftsrechtlichen Beschränkungen spielen hierbei keine große Rolle. Ertragsteuerrechtlich werden die disquotalen Vermögensübertragungen durch die Finanzverwaltung und die Rechtsprechung anerkannt. Schenkungsteuerrechtlich ist die Behandlung dagegen problematisch und teilweise nicht sachdienlich. Im Ergebnis wird ein Lösungsansatz dargeboten, der auch die Besonderheiten im Wirtschaftsleben unter Einschaltung einer GmbH berücksichtigt.
Aufgrund zunehmender Herausforderungen bei der Entsendung von Mitarbeitern ins Ausland beschäftigt sich die Dissertation ‚Optimierung der Anzahl an Auslandsentsendungen und Empowerment of Locals in internationalen Unternehmen’ unter Zuhilfenahme der deskriptiven Entscheidungstheorie mit der wissenschaftlichen Forschungsfrage, ob sich die Anzahl der Auslandsentsendungen von deutschen Großunternehmen in den nächsten Jahren verändern wird und welche Parameter, wie z.B. die strategische Ausrichtung des Unternehmens, dafür ausschlaggebend sind. Darüber hinaus wird analysiert, inwieweit eine solche Reduzierung erfolgversprechend ist und ob es eine optimale Anzahl an Auslandsentsendungen gibt. Weiterhin wird untersucht, wie Auslandsentsendungen erfolgreich optimiert werden können und ob dies - beispielsweise durch ein gezieltes Empowerment of Locals - unterstützt werden kann. Dieses Buch richtet sich sowohl an Forschende und Studierende im Bereich der BWL – insbesondere mit den Schwerpunkten Personalmanagement und Internationales Management – als auch an HR-Mitarbeiter, Führungskräfte und Berater, die an theoretischen und empirischen Erkenntnissen zu Auslandsentsendung von Mitarbeitern und Expatriate-Management interessiert sind
Der Mensch in der Moderne lebt in einem Spannungsverhältnis zwischen all dem, was nun menschenmöglich erscheint und dem, was er als Einzelner, aufgrund seines beschränkten Kräftehaushalts, zu leisten vermag. Die notwendige Spezialisierung in einem beschränkten Feld schließt ihn, wie Max Weber es in »Wissenschaft als Beruf« darstellt, von vielen anderen Bereichen aus. Besonders eklatant wird dies in der Zeit der Wende vom 19. zum 20. Jahrhundert empfunden, welche die verschiedensten Versuche hervorbringt, Synthesen zwischen den ausdifferenzierten Wissensgebieten herzustellen. Einen besonderen Stellenwert hat hier das Wissen der Naturwissenschaftler, auf welche noch der materialistische und positivistische Optimismus des 19. Jahrhunderts wirkt.
An den Autobiographien des spanischen Histologen Santiago Ramón y Cajal (1852-1934) und des deutschen Chemikers Wilhelm Ostwald (1853-1932) zeigt sich exemplarisch, wie naturwissenschaftliche Spezialisten als Autoren auf dieses Spannungsverhältnis reagieren. In drei Kapiteln führt die literaturwissenschaftliche Untersuchung vor, wie die Autoren sprachliche Formen aus ihrer Spezialisierung entlehnen und für die Darstellung des eigenen Lebens nutzen. Historisch führt die Lektüre zu dem Schluss, dass in diesen Texten eine Verschiebung des Positivismus aus der Philosophie in die Autobiographik stattfindet.
Systematisch stellt der im Band entwickelte Begriff des biographischen Lebenswissens einen Versuch dar, das Leben des Einzelnen für die Sinngebung im Text starkzumachen, ohne in Biographismus oder ein Konzept starker Autorschaft zurückzufallen.
Seit den 60er Jahren gibt es im deutschsprachigen Raum Diskussionen um die Begriffe Schlüsselqualifikation und (Schlüssel-)Kompetenz, welche seit ca. 2000 auch in der Informatikdidaktik angekommen sind. Die Diskussionen der Fachdisziplinen und ihre Bedeutung für die Informatikdidaktik sind Gegenstand des ersten Teils dieser Dissertation. Es werden Rahmenmodelle zur Strukturierung und Einordnung von Kompetenzen entworfen, die für alle Fachdisziplinen nutzbar sind. Im zweiten Teil wird ein methodologischer Weg gezeigt, Schlüsselkompetenzen herzuleiten, ohne normativ vorgehen zu müssen. Hierzu wird das Verfahren der Qualitativen Inhaltsanalyse (QI) auf informatikdidaktische Ansätze angewendet. Die resultierenden Kompetenzen werden in weiteren Schritten verfeinert und in die zuvor entworfenen Rahmenmodelle eingeordnet. Das Ergebnis sind informatische Schlüsselkompetenzen, welche ein spezifisches Bild der Informatik zeichnen und zur Analyse bereits bestehender Curricula genutzt werden können. Zusätzlich zeigt das Verfahren einen Weg auf, wie Schlüsselkompetenzen auf nicht-normativem Wege generell hergeleitet werden können.
Die Arbeit befasst sich zunächst mit der Analyse und Einordnung des Begriffs der Daseinsvorsorge und deren Erbringung durch den Staat. Schwerpunkt der Betrachtung bildet dabei die Energieversorgung als klassische Aufgabe staatlicher Daseinsvorsorge.
Weiterhin wird der durch die Liberalisierung der Energieversorgung im Jahr 1998 eingeleitete Wandel von sog. natürlichen Monopolen, hin zu einem wettbewerblichen System betrachtet. Dabei wird aufgezeigt, dass sich durch die Einführung des Wettbewerbs weder die damit erhofften Kostenreduzierungen, noch das von Kritikern befürchtete Sterben der kommunalen Energieversorger bewahrheitet haben. Statt einer freien Preisbildung im Wettbewerb ist es zu einer faktischen Verlagerung der früher staatlich festgesetzten Energiepreisgenehmigung auf die Gerichte gekommen, die hierfür jedoch nicht ausgelegt sind. Kommunale Stadtwerke haben sich in der wettbewerblichen Energieversorgung dagegen so gut behauptet, dass seit einiger Zeit ein Trend zur Rekommunalisierung von Energieversorgung auf kommunaler Ebene zu verzeichnen ist.
Diesem offensichtlichen Wunsch nach einer gesteigerten Einflussnahme der Gemeinden auf die örtliche Energieversorgung läuft der aktuelle Rechtsrahmen der energierechtlichen Konzessionsvergabe in Gestalt des § 46 EnWG und seiner Auslegung durch die Rechtsprechung der Zivilgerichte zuwider. Die Arbeit zeigt auf, dass von Beginn der Liberalisierung der kommunale Einfluss auf die örtliche Konzessionsvergabe schrittweise und stetig beschnitten wurde, so dass gegenwärtig ein Zustand der Aushöhlung erreicht ist, der als unzulässiger Eingriff in den geschützten Kernbereich der kommunalen Selbstverwaltungsgarantie i.S.d. Art. 28 II GG anzusehen ist.
Das Treasury-Management von Internationalen Unternehmen gewinnt in der Praxis zunehmend an strategischer Bedeutung; eine wissenschaftlich umfassende Erörterung des Themas unter Berücksichtigung verschiedener Perspektiven und aktueller Entwicklungen fehlt jedoch. Daher wird in der vorliegenden Dissertation einerseits ein holistisches Verständnis des Treasury-Managements von Internationalen Unternehmen erarbeitet. Diese neuartige Sichtweise wird durch die Entwicklung von theoretischen Modellen untermauert und eine zunehmende Strategieorientierung nachgewiesen. Ergänzend wird das Treasury-Management vor dem Hintergrund einer Fokussierung auf Internationale Unternehmen und Finanzmärkte in einen Gesamtunternehmenskontext eingeordnet, aber auch Spezial-bereiche – wie die Corporate Governance der Treasury-Abteilung werden hinreichend behandelt. Daneben wird aber auch eine umfangreiche empirische Analyse der Bankensteuerung und des Cash-Managements von Internationalen Unternehmen am Beispiel von DAX- und MDAX-Unternehmen im Kontext der Globalen Finanzkrise durchgeführt. Es werden wesentliche Entwicklungstendenzen – wie eine zunehmende Risikoorientierung – aufgezeigt und ein Zusammenhang zwischen beiden Untersuchungsbereichen nachgewiesen.
Sandra Eger befasst sich in diesem Buch mit der Möglichkeit, politisches Verstehen durch den Einsatz von Jugendliteratur zu fördern. Dabei wird sowohl die Möglichkeit eines Einsatzes im Fachunterricht Politische Bildung als auch im fächerübergreifenden Unterricht der Sekundarstufe I betrachtet. Neben einer empirischen Studie, die die Frage beantwortet, inwiefern derzeit Jugendliteratur in der Sekundarstufe I zur Förderung politischen Verstehens eingesetzt wird, bieten jugendliterarische Beispiele zur Förderung politischen Verstehens Anregungen für die Unterrichtspraxis.
Seit Einführung der ZPO war in Rechtsprechung und Literatur umstritten, ob titulierte Unterlassungsansprüche noch vollstreckt werden können, wenn sich der zugrunde liegende Anspruch bereits erledigt hat. Im Jahr 2003 hat sich der Bundesgerichtshof hierzu erstmals positioniert und einen – scheinbar – simplen Ausweg aus dem dogmatischen Dilemma anhand einer zeitlich beschränkten Erledigungserklärung aufgezeigt. Die Diskussionen in Rechtsprechung und Literatur sind seitdem verstummt. Die Untersuchung setzt sich mit den Grundlagen einer Vollstreckung nach § 890 ZPO auseinander und zeigt auf, dass die Entscheidung für eine zeitlich beschränkte Erledigungserklärung ein Ausweg sein kann – sofern die prozessualen Weichen hierfür bereits im Erkenntnisverfahren richtig gestellt werden.
Ziel dieser Arbeit war die Synthese und Charakterisierung von neuartigen fluoreszierenden Copolymeren zur Analytdetektion in wässrigen Systemen. Das Detektionssystem sollte ein einfaches Schalten der Fluoreszenz bei Analytbindung „Aus“ bzw. Verdrängung „An“ ermöglichen. Dafür wurde die Synthese eines funktionalisierten Monomers so geplant, dass sich Fluorophor und Analyt innerhalb derselben Monomereinheit in direkter Nachbarschaft zueinander befinden. So sollten bei Erkennung des Analyten durch eine mit einem Fluoreszenzlöscher funktionalisierte Erkennungsstruktur Fluorophor und Löscher in einen vorgegebenen Abstand zueinander gezwungen und die Fluoreszenz des Fluorophors effizient gelöscht werden. Bei anschließender Verdrängung der Erkennungseinheit durch einen stärker bindenden Analyten sollte die Fluoreszenz wieder „angeschaltet“ werden. Eine weitere Zielstellung für das Detektionssystem war eine hohe Löslichkeit und Fluoreszenzintensität in Wasser. Da die Anwendung solcher Sensoren besonders in der Medizin und Biologie, z.B. für Schnellerkennungstest von Pathogenen, von Interesse ist, ist die Kompatibilität mit wässrigen Medien essentiell. Die funktionalisierten Monomere wurden frei radikalisch mit N Vinyl-pyrrolidon bzw. N Vinyl¬caprolactam zu wasserlöslichen, fluoreszierenden Copolymeren umgesetzt. In den N-Vinyl¬pyrrolidon-Polymeren (PNVP) wurde RhodaminB, in den thermoresponsiven N Vinyl¬caprolactam-Polymeren (PNVCL) ein Naphthalsäureimid als Fluorophor verwendet. Während Rhodamine eine hohe Fluoreszenzintensität, gute Quantenausbeuten und hohen Extinktionskoeffizienten in Wasser zeigen, sind Naphthalsäure¬imide umgebungssensitive Chromophore, die bei Änderung ihrer Lösungsmittelumgebung, wie z.B. beim Kollaps eines thermoresponsiven Polymers in Wasser, ihre Fluoreszenzintensität und Quantenausbeute drastisch ändern können. Der Vorteil der hier verwendeten Strategie der Monomersynthese liegt darin, dass bei jeder spezifischen Analytdetektion durch eine Erkennungseinheit die Fluoreszenz effizient gelöscht bzw. bei Verdrängung durch einen stärker bindenden Analyten wieder „angeschaltet“ wird. Dieses Prinzip wird bereits vielfach in der Biologie in sogenannten „Molecular Beacons“ ausgenutzt, wobei ein Fluorophor und ein Löscher durch spezifische DNA Basenpaarung in einen vorgegebenen Abstand zueinander gezwungen werden und so ein „Schalten“ der Fluoreszenz ermöglichen. Aufgrund der vorgegebenen Struktur der DNA Basensequenzen ist es jedoch nicht direkt auf andere Erkennungsreaktionen übertragbar. Daher wurde ein Modellsystem entwickelt, welches die Möglichkeit bietet Analyt, Erkennungseinheit und Signalgeber variabel, je nach Anforderungen des Systems, auszutauschen. So soll es möglich sein, den Sensor a priori für jede Erkennungs¬reaktion zu verwenden. Als Modell Bindungs¬paare wurden ß Cyclodextrin/Adamantan und Con¬cana¬valinA/Mannose ausgewählt. Adamantan bzw. Mannose wurde als Analyt zusammen mit dem Fluorophor in das Polymer eingebunden. ß Cyclo¬dextrin (ß CD) bzw. ConcanavalinA (ConA) wurde als Erkennungsstruktur an einem Fluoreszenzlöscher immobilisiert. Polymer-basierte Fluoreszenzsensoren sind in der Fachliteratur gut dokumentiert. In der Regel sind Signalgeber und Analyt jedoch statistisch im Polymer verteilt, da sie sich entweder in unterschiedlichen Monomereinheiten befinden oder die Funktionalisierung durch eine polymeranaloge Umsetzung erfolgt. Der gewählte Ansatz Fluorophor und Analyt innerhalb derselben Monomereinheit einzubinden, soll bei jeder Erkennungsreaktion des Analyten zu einer Änderung der Signalintensität des Fluorophors führen. Eine hohe Signalintensität bei Analytdetektion ist wünschenswert, insbesondere für Erkennungsreaktionen, die mit möglichst geringem apparativem Aufwand, am besten mit dem bloßen Auge zu verfolgen sein sollen. Des Weiteren ist es möglich den Fluorophorgehalt im Polymer genau einzustellen und so Selbstlöschung zu vermeiden. Die synthetisierten Polymere haben einen Fluorophorgehalt von 0,01 mol% bis 0,5 mol%. Für die RhodaminB haltigen Polymere zeigte sich, dass ein Fluorophorgehalt unterhalb 0,1 mol% im Polymer die höchsten Ausbeuten, Molmassen und Quantenausbeuten liefert. Für die Naphthalsäureimid haltigen Polymere hingegen wurden auch für einen Fluorophorgehalt von bis zu 1 mol% hohe Ausbeuten und Molmassen erreicht. Die Naphthalsäureimid haltigen Polymere haben jedoch in wässriger Lösungsmittelumgebung nur geringe Quantenausbeuten. Als Fluoreszenzlöscher wurden Goldnanopartikel synthetisiert, die mit den entsprechenden Erkennungsstrukturen (ß-CD oder ConA) für den verwendeten Analyten funktionalisiert wurden. Goldnanopartikel als Löscher bieten den Vorteil, dass ihre Dispergierbarkeit in einem Lösemittel durch Funktionalisierung ihrer Hülle gezielt gesteuert werden kann. Durch die hohe Affinität von Goldnanopartikeln zu Thiolen und Aminen konnten sie mit Hilfe einfacher Syntheseschritte mit Thio ß CD Derivaten bzw. ConA funktionalisiert werden. In der hier vorgelegten Arbeit sollte ein Modellsystem für einen solches fluoreszenz-basiertes Detektionssystem in Wasser entwickelt werden. Nachfolgend werden die zu erfüllenden strukturellen Voraussetzungen für die Synthese eines solchen Sensors nochmals zusammengefasst:
1. Verwendung eines Fluorophors, der eine hohe Signalintensität zeigt.
2. Analyt bzw. Erkennungseinheit soll sich im Abstand von wenigen Nanometern zum Signalgeber befinden, um bei jeder Detektionsreaktion die Signalintensität des Signalgebers beeinflussen zu können.
3. Die Detektionseinheit benötigt eine funktionelle Gruppe zur Immobilisierung. Immobilisierung kann z.B. durch Einbindung in ein Polymer erfolgen.
4. Der Fluorophor soll bei Änderung seiner lokalen Umgebung, durch Binden eines Löschers oder Änderung seiner Lösemittelumgebung seine Fluoreszenzeigenschaften drastisch ändern.
5. Die Reaktion sollte schnell und mit möglichst geringem apparativem Aufwand, am besten mit bloßem Auge zu verfolgen sein.
Für das ß-CD/Adamantan Modellsystem wurde ein Fluoreszenz Aus/An Sensor entwickelt, der bei Binden ß CD funktionalisierter Goldnanopartikel an das polymergebundene Adamantan die Fluoreszenz des RhodaminB Fluorophors effizient löscht und bei Verdrängung der Goldnanopartikel wieder zurück gewinnt. Dies konnte auch mit bloßem Auge verfolgt werden.
Für die Naphthalsäureimid Monomere, die mit NVCL copolymerisiert wurden, wurde abhängig von der lokalen Umgebung des Fluorophors eine unterschiedliche Verstärkung der Fluoreszenzintensität bei Überschreiten des Trübungspunktes des Polymers gefunden. Dabei zeigte sich, dass die Einführung eines Abstandshalters zwischen Polymerrückgrat und Fluorophor zu einer großen Fluoreszenz¬verstärkung führt, während sich ohne Abstandshalter die Fluoreszenzintensität bei Über¬schreiten des Trübungspunktes kaum ändert.
Patentpools
(2015)
Elisabeth Eppinger erforscht in diesem Buch aktuelle Patentpools, ihre Eigenschaften und alternative Lösungen zur gemeinsamen Nutzung von Patenten. Patentpools haben das Potenzial, Patentblockaden zu lösen und Innovationen zu fördern. Die Autorin diskutiert die Rolle von Patentkooperationen im Rahmen des strategischen Technologie- und Innovationsmanagements sowie der Innovationsförderung. Es wird gezeigt, welche strukturellen Faktoren, Motive und Charakteristika von Akteuren unterschiedliche Patentpools begünstigen
Diese Arbeit befasst sich mit der ganzheitlichen Betrachtung der Fluideigenschaften eines unterpermischen Reservoirs am Geothermie Forschungsstandort Groß Schönebeck (GrSk) bei Reservoirbedingungen und im Betrieb der Geothermieanlage. Die Untersuchungen zur Fluidherkunft ergeben, dass es sich um ein konnates Wasser meteorischen Ursprungs ohne den Einfluss der darüberliegenden Zechsteinwässer handelt. Die Ionen und Isotopenverhältnisse im Formationswasser gelöster Komponenten in GrSk belegen einen gemeinsamen Genesepfad mit Wässern anderer Rotliegend-Reservoire des Nordostdeutschen Beckens (NEGB). Die Isotopenverhältnisse von ⁸⁷Sr/⁸⁶Sr ≈ 0,7158 und von δ³⁴SV CDT ≈ 4,1 ‰ des Sulfats weisen auf die Anreicherung des Fluids mit schweren Isotopen durch die Fluid Gestein-Wechselwirkung mit Vulkaniten und Rotliegend Sandsteinen des Unteren Perms hin.
Das im Formationswasser bei Reservoirbedingungen gelöste Gas (Gas/Wasser ≤ 2 bei STP) enthält Stickstoff (δ¹⁵NAir ≈ 0,6 ‰) und thermogenes Methan (δ¹³CV-PDB ≈ - 18 ‰) aus organischen Karbonablagerungen (Kerogen Typ - III Kohlen) hoher Reife. Die Isotopenverhältnisse der Edelgase belegen eine krustale Herkunft des Gasgemisches. Die berechnete Verweilzeit τ (⁴He) der Gase im Reservoir liegt zwischen 275 und 317 Ma und überschreitet damit bei gegebener Konzentration von Mutternukliden im Reservoirgestein das allgemein angenommene Zeitalter der Sedimentgruppe. Das lässt sich durch eine Zuwanderung von Gasen aus älteren Sedimentfolgen erklären.
Die Veränderungen der physikochemischen Fluidparameter während des Anlagenbetriebs sind hauptsächlich temperaturbedingt. Bei stabilen Produktionsbedingungen und einer Temperatur von ca. 100 °C stabilisieren sich auch die Fluideigenschaften. Bei In situ Bedingungen übertage beträgt die Dichte ρ = 1,1325 ± 0,0002 g ∙ mL⁻¹, das Redoxpotential Eh = -105,5 ± 1,3 mV und der pH = 6,61 ± 0,002. Die relative Zusammensetzung der Gasphase bei stabilen Produktionsbedingungen zeigt dagegen eine geringe Erhöhung des Stickstoffanteils sowie des Anteils der Kohlenwasserstoffe (Ethan, Propan, usw.) und Abnahme des relativen Methananteils im Laufe des Betriebs.
Die quantitative Untersuchung der sekundären mineralischen Ausfällungen im Fluid mittels sequentieller Extraktion zeigte, dass Schwermetalle als eine Hauptkomponente der Fluidfestphase größtenteils in Verbindung mit organischen Molekülen vorliegen. Experimente zum Einfluss organischer Verbindungen unterschiedlicher Substanzklassen auf eine Mobilisierung der Schwermetalle aus dem Reservoirgestein ergaben, dass die Verbindungen wie Fettsäuren und PAK (polyzyklische aromatische Kohlenwasserstoffe) die Freisetzung von Kupfer, Nickel, Chrom und Blei verhindern bzw. zu derer Immobilisierung beitragen. Im Gegensatz dazu wird die Mobilität von Zink in Anwesenheit von diesen Verbindungen erhöht. Niedermolekulare Monocarbonsäuren und stickstoffhaltige Heteroaromaten tragen, mit Ausnahme von Blei, zur Freisetzung bzw. Mobilisierung von Schwermetallen aus dem Reservoirgestein bei.
Die gewonnenen Erkenntnisse dieser Arbeit bestätigen das Risiko massiver Ausfällungen auf der kalten Seite der Geothermieanlage bei Inbetriebnahme des Kraftwerks, wenn keine an den Fluidchemismus angepassten Präventionsmethoden eingesetzt werden. Die Isotopenzusammensetzung der Fluidkomponenten sowie geringfügige Schwankungen der Gaszusammensetzung im kontinuierlichen Anlagenbetrieb lässt eine Kommunikation des unterpermischen Reservoirs mit dem darunter liegenden Oberkarbon vermuten, was eine nachträgliche Veränderung der Fluidzusammensetzung beim Dauerbetrieb der Anlage bedeuten kann.
Die Doktorarbeit behandelt die Synthese Kohlenstoffnitrid basierter Materialien in eutektischen Mischungen bivalenter Metallchloride. Der Fokus liegt dabei auf ZnCl2-, SnCl2- und CoCl2-haltigen eutektischen Mischungen, in denen die Kondensation gebräuchlicher organischer Precursoren durchgeführt wird. Im Rahmen dessen wird untersucht wie durch die Reaktionsführung in Salzschmelzen unterschiedlicher Lewis-Acidität, neben der Molekülstruktur andere charakteristische Eigenschaften, wie Morphologie, Kristallinität und spezifische Oberflächen, der Materialien kontrolliert werden können. Darüber hinaus werden die optischen Eigenschaften der Materialien erörtert und in diesem Zusammenhang die Eignung als Photokatalysatoren für den oxidativen Abbau organischer Farbstoffe und für die photokatalytische Wasserreduktion bzw. –oxidation untersucht. Zusätzlich wird gezeigt, wie im System LiCl/KCl in einem einstufigen Prozess edelmetallfreie Kohlenstoffnitrid Komposite zur photokatalytischen Wasserreduktion hergestellt werden können.
Aminosäuren sind lebensnotwendige Moleküle für alle Organismen. Ihre Erkennung im Körper ermöglicht eine bedarfsgerechte Regulation ihrer Aufnahme und ihrer Verwertung. Welcher Chemosensor für diese Erkennung jedoch hauptverantwortlich ist, ist bisher unklar. In der vorliegenden Arbeit wurde die Rolle der Umamigeschmacksrezeptoruntereinheit Tas1r1 jenseits ihrer gustatorischen Bedeutung für die Aminosäuredetektion in der Mundhöhle untersucht.
In der histologischen Tas1r1-Expressionsanalyse nichtgustatorischer Gewebe der Mauslinie Tas1r1-Cre/ROSA26-tdRFP wurde über die Detektion des Reporterproteins tdRFP die Expression des Tas1r1 in allen untersuchten Geweben (Speiseröhre, Magen, Darm, Bauchspeicheldrüse, Leber, Niere, Muskel- und Fettgewebe, Milz, Thymus, Lymphknoten, Lunge sowie Hoden) nachgewiesen. Mit Ausnahme von Dünndarm und Hoden gelang hierbei der Nachweis erstmals spezifisch auf zellulärer Ebene. Caecum und Lymphknoten wurden zudem neu als Expressionsorte des Tas1r1 identifiziert.
Trotz der beobachteten weiten Verbreitung des Tas1r1 im Organismus – unter anderem auch in Geweben, die für den Proteinstoffwechsel besonders relevant sind – waren im Zuge der durchgeführten Untersuchung potentieller extraoraler Funktionen des Rezeptors durch phänotypische Charakterisierung der Mauslinie Tas1r1-BLiR nur schwache Auswirkungen auf Aminosäurestoffwechsel bzw. Stickstoffhaushalt im Falle eines Tas1r1-Knockouts detektierbar. Während sich Ernährungsverhalten, Gesamtphysiologie, Gewebemorphologie sowie Futterverdaulichkeit unverändert zeigten, war die renale Stickstoffausscheidung bei Tas1r1-Knockout-Mäusen auf eiweißarmer sowie auf eiweißreicher Diät signifikant verringert. Eine Überdeckung der Auswirkungen des Tas1r1-Knockouts aufgrund kompensatorischer Effekte durch den Aminosäuresensor CaSR oder den Peptidsensor Gpr93 war nicht nachweisbar. Es bleibt offen, ob andere Mechanismen oder andere Chemosensoren an einer Kompensation beteiligt sind oder aber Tas1r1 in extraoralem Gewebe andere Funktionen als die der Aminosäuredetektion übernimmt. Unterschiede im extraoralen Expressionsmuster der beiden Umamirezeptor-untereinheiten Tas1r1 und Tasr3 lassen Spekulationen über andere Partner, Liganden und Funktionen zu.
Arthur Ewert (1890-1959)
(2015)
Arthur Ewert (1890-1959) war in den zwanziger und frühen dreißiger Jahren ein wichtiger Funktionär der Kommunistischen Partei Deutschlands und der Kommunistischen Internationale.
Er wurde in der Familie eines armen Bauern in Ostpreußen geboren. Nach dem Abschluß der Schule ging er nach Berlin, um hier eine Lehre als Sattler zu absolvieren. Über die Berliner Arbeiterjugendbewegung fand er Kontakt zur Sozialdemokratischen Partei Deutschlands, deren Mitglied er 1908 wurde.
Im Mai 1914 emigrierte er gemeinsam mit seiner langjährigen Lebensgefährtin und späteren Ehefrau Elise Saborowski (1886-1939) nach Nordamerika, wo er sich sofort der sozialistischen Bewegung anschloß. Anfang 1919 gehörte er zu den Mitbegründern der ersten Kommunistischen Partei Kanadas.
Im Sommer 1919 kehrte er nach Deutschland zurück und wurde Mitglied der wenige Monate zuvor gegründeten KPD.
Auf dem Leipziger Parteitag der KPD im Februar 1923 wurde er in die zwanzigköpfige Zentrale seiner Partei gewählt und stieg damit in den engeren Führungszirkel auf.
Nach der gescheiterten »Deutschen Oktoberrevolution« im Herbst 1923 kämpfte er gemeinsam mit Ernst Meyer, Hugo Eberlein, Wilhelm Pieck und anderen um das Überleben der KPD, doch gelang es seiner Gruppe nicht, den Sieg der Linken und Ultralinken im parteiinternen Machtkampf zu verhindern. Ewert wurde politisch »kaltgestellt« und schied für mehr als ein Jahr aus der Parteiführung aus.
In dieser Zeit erfüllte er verschiedene Aufgaben für die Kommunistische Internationale. Bereits im Juni 1923 war er Berichterstatter zur Lage in der Norwegischen Arbeiterpartei gewesen, ab Ende 1924 war er Abgesandter bei der KP Großbritanniens. Im Sommer und Frühherbst 1927 hielt er sich mehrere Monate in den USA auf.
Im Sommer 1925 wurde er auf Veranlassung der Kommunistischen Internationale in die Führung der KPD zurückgeholt. Er trug wesentlich dazu bei, die Parteiführung unter Ernst Thälmann zu stabilisieren und sie – zumindest zeitweise – auf einen realpolitischen Kurs zu orientieren.
Mit dem erneuten »Links«-Schwenk der KPD ab Anfang 1928 wurde er als »Versöhnler« stigmatisiert und zunehmend zur Zielscheibe innerparteilicher Attacken. Der Versuch eines »Befreiungsschlages« unter Ausnutzung der sogenannten Wittorf-Affäre im Herbst 1928 scheiterte, bis zum Sommer 1929 wurde Arthur Ewert auf Drängen Stalins und mit ausdrücklicher Zustimmung Thälmanns aus allen Funktionen in der KPD entfernt.
Nach der Auflösung des Reichstags und dem damit verbundenen Verlust seines Reichstagsmandats im Juli 1930 schied Ewert endgültig aus der deutschen Parteiarbeit aus.
Ende 1930 wurde er zum Leiter des Südamerikanischen Büros der Kommunistischen Internationale in Montevideo, der Hauptstadt Uruguays, ernannt. Er trug damit Verantwortung für die unmittelbare Anleitung der Kommunistischen Parteien im sogenannten Südkegel Südamerikas. In diese Zeit fielen seine ersten Kontakte zu Luiz Carlos Prestes, dem legendären »Ritter der Hoffnung«, mit dem er ab Anfang 1935 in Brasilien zusammenarbeitete.
Von 1932 bis 1934 leitete Arthur Ewert das Büro der Kommunistischen Internationale in Shanghai und spielte dabei eine entscheidende Rolle zugunsten Mao Tse-tungs, dessen politisches Überleben er in einem innerparteilichen Machtkampf der KP Chinas sicherte.
Als Vertreter der Kommunistischen Internationale war Arthur Ewert im Verlaufe des Jahres 1935 an den Versuchen beteiligt, in Brasilien – gestützt auf ein breites Bündnis, die »Nationale Befreiungsallianz« - einen politischen Machtwechsel herbeizuführen. Nach dem Scheitern des von Prestes geführten Aufstandsversuches wurde er Ende 1935 verhaftet. Arthur Ewert verlor in Folge der barbarischen Folterungen in brasilianischer Haft den Verstand.
Er kam im Mai 1945 im Ergebnis einer Amnestie frei. 1947 gelang es seiner Schwester, ihn in die sowjetische Besatzungszone zurückzuholen. Die Ärzte dort konnten nur noch feststellen, daß eine Heilung unmöglich war. Arthur Ewert verbrachte den Rest seines Lebens in einem Pflegeheim in Eberswalde, wo er 1959 starb.
Frankreich 1958: Der Algerienkrieg eskaliert, die links-liberale Regierung implodiert und reicht die Macht an General Charles de Gaulle weiter. Der hebt im Oktober die V. Republik aus der Taufe - und die französische Linke gesteht damit ihre Ohnmacht ein. Die Sozialisten haben den Machtantritt des konservativen Generals nicht verhindert, sondern diesen sogar mit angezettelt. Auch die Kommunisten sind isoliert und kämpfen mit dem stalinistischen Erbe. Einige Genossen erkennen ihre sozialistische Bewegung nicht wieder und beschließen, eine neue linke Bewegung aufbauen. Sie wollen de Gaulle und den Krieg offen bekämpfen, "veraltete" linke Ideologien über Bord werfen und ein "Labor" für neues linkes Denken schaffen. Parteimitglieder der Altkommunisten, Sozialisten und Trotzkisten, aber auch Künstler, Philosophen und Schriftsteller wurden Teil dieser heterogenen Bewegung, die heute als Neue Linke bezeichnet wird. Der interessierte Leser begreift nun die Ideengeschichte dieser Neuen französischen Linken, die nicht nur einen starken Einfluss auf die Ereignisse um 1968 in Frankreich ausübte, sondern deren Ansätze noch bis heute im linken Spektrum, inner- wie außerparteilich, für Diskussionsstoff sorgen.
Die Veröffentlichung ist, neben der Evaluation des Systemischen Aggressionsmanagements (SAM), ein Beitrag für die Diskussionen um Habitusformen und Kompetenzbegriffe. Sie bildet einen Brückenkopf, denn beide Diskursstränge zusammengedacht können gegenseitige Anschlussstellen und Erweiterungen offenlegen bzw. eingehen. Zudem bildet sie ein Puzzleteil in der Evaluation von pädagogischen Programmen, die in ihrer Vielzahl einer Evaluation bedürfen. Im Rahmen der Bildungswissenschaft können auf dieser Basis erwachsenbildnerische Präventions- und Interventionsprogramme empirisch gesteuert angepasst werden.
Auf theoretischer Ebene wird zunächst der Gegenstand der Untersuchung herausgearbeitet. Der Habitus aggredi bildet die zentrale Analysestruktur. Sie bildet den Zugang zur pädagogischen Professionalität. Im Diskurs um pädagogische Professionalität besitzt der Begriff der ‚Kompetenz‘ einen prominenten Stellenwert. Mittels einer theoretischen Triangulation werden ‚Habitus‘ und ‚Kompetenz‘ gekoppelt. Einstellungen, Stile und geschmackliche Vorlieben sowie spezifische Wahrnehmungs-, Denk- und Handlungsmuster drücken sich in ihrer Performanz über Fertigkeiten und Fähigkeiten aus. Insgesamt wird der Bogen von der pädagogischen Professionalität über lebenslanges Lernen, Weiterbildung, Habitus und Kompetenz bis hin zu Wissen, Fertigkeiten und Fähigkeiten gespannt.
Um der Frage nach Effekten des SAM nachzugehen, wurde eine dreistufige summativ-evaluationsorientierte Paneluntersuchung im methodentriangulierten Design durchgeführt. Sie zeigte auf qualitativer Ebene, dass der Habitus aggredi als Subkategorie des professionellen Habitus durchaus mittel Weiterbildung bewegt werden kann. Die Zielgruppe der Kitaerzieher_innen konnte auch nach drei Monaten Weiterbildungsinhalte erinnern. Bei Teilen der Zielgruppe konnte eine Erweiterung von Handlungsoptionen nachgewiesen werden. Zudem zeigte sich, dass SAM auch in den privaten Bereich hinein wirksam ist.
Innerhalb der EU wird die Fusionskontrolle auf zwei vertikal nachgelagerten Ebenen durchgeführt, der europäischen und der nationalen Instanz. Da beide Ebenen nicht unverbunden sind, ergibt sich ein mehrdimensionales Kompetenzproblem. Die Fusionskontrollkompetenzen sind vertikal (europäische versus mitgliedstaatliche Ebene) und horizontal (mitgliedstaatliche Ebene) abgegrenzt. Während auf vertikaler Ebene konkurrierende Zuständigkeiten ausgeschlossen sind, sind horizontal Überlappungen möglich.
Die Arbeit beschäftigt sich mit Konflikten bei der Abgrenzung von Fusionskontrollkompetenzen. Zudem wird ein Alternativmodell erarbeitet, das dem bestehenden System aus ökonomischer Perspektive überlegen ist.
Das deutsche Zivilrecht geht davon aus, dass eine erwachsene, gesunde Person ihren Willen grundsätzlich fehlerfrei bilden und äußern kann. Eine Ausnahme gilt dann, wenn sie aufgrund besonderer geistiger oder körperlicher Umstände nicht die Fähigkeit zur freien Willensbildung besitzt. Willenserklärungen von Personen, die nicht dauerhaft, sondern nur für einen vorübergehenden Moment nicht fähig sind, ihren Willen so zu äußern wie sie es unter normalen Umständen tun würden, sind nach § 105 Absatz 2 BGB nichtig. Grund dafür ist entweder eine „Bewusstlosigkeit“ oder eine „vorübergehende Störung der Geistestätigkeit“. Die sorgfältige Auslegung des Tatbestands ist wichtig für die tägliche Entscheidungspraxis der Gerichte. Die Arbeit untersucht deshalb die Vorschrift des § 105 Absatz 2 BGB im historischen, juristischen und medizinischen Kontext, berücksichtigt dabei insbesondere die Abgrenzung zur Geschäftsunfähigkeit nach § 104 Nr. 2 BGB und geht der Anwendung der Vorschrift auf konkrete medizinische Störungen (alkoholbedingte Störungen, Abhängigkeit von illegalen Drogen, Epilepsien, Demenzen, Schizophrenien, neurotische Störungen, u.a.) nach.
Die Kirche Saint-Lazare in Autun wurde zu Beginn des 12. Jahrhunderts für die Reliquien des Lazarus von Bethanien erbaut. Das Bildprogramm der neuen Kirche musste sowohl den Ansprüchen und Interessen der Auftraggeber entsprechen als auch auf den Patron der Kirche Bezug nehmen und dem Sonderstatus als Pilgerkirche gerecht werden. Die Autorin untersucht, ob sich die einzelnen Bilder auch einem theologisch eher ungeschulten Betrachter erschließen und welche Bedeutung die Bewegung des Betrachters im Kirchenraum hat. In der Kombination von intensiver Betrachtung des Einzelbildes und sukzessiver Erfassung des Gebäudeensembles wird ein Wahrnehmungs- und Erkenntnisprozess in Gang gesetzt, der von der Anschauung des Sichtbaren zur inneren Schau führen soll.
Das Schulbuch ist ein etablierter und bedeutender Bestandteil des Mathematikunterrichts. Lehrer nutzen es, um ihren Unterricht vorzubereiten und/oder zu gestalten; Schüler, um in selbigem zu lernen und zu bestehen, vielleicht sogar aus eigenem Interesse; Eltern, um sich darüber zu informieren, was ihr Kind eigentlich können soll und wie sie ihm gegebenenfalls helfen können. Darüber hinaus ist das Schulbuch ein markantes gesellschaftliches Produkt, dessen Zweck es ist, das Unterrichtsgeschehen zu steuern und zu beeinflussen. Damit ist es auch ein Anzeiger dafür, was und wie im Mathematikunterricht gelehrt werden sollte und wird. Die Lehrtexte als zentrale Bestandteile von Schulbüchern verweisen in diesem Zusammenhang insbesondere auf die Phasen der Einführung neuen Lernstoffs. Daraus legitimiert sich übergreifend die Fragestellung, was und wie (gut) Mathematikschulbuchlehrtexte lehren bzw. was und wie (gut) adressierte Schüler aus ihnen (selbstständig) lernen, d.h. Wissen erwerben können.
Angesichts der komplexen und vielfältigen Bedeutung von Schulbuchlehrtexten verwundert es, dass die mathematikdidaktische Forschung bislang wenig Interesse an ihnen zeigt: Es fehlen sowohl eine theoretische Konzeption der Größe ‚Lehrpotential eines schulmathematischen Lehrtextes‘ als auch ein analytisches Verfahren, um das anhand eines Mathematikschulbuchlehrtextes Verstehbare und Lernbare zu ermitteln. Mit der vorliegenden Arbeit wird sowohl in theoretisch-methodologischer als auch in empirischer Hinsicht der Versuch unternommen, diesen Defiziten zu begegnen. Dabei wird das ‚Lehrpotential eines Mathematikschulbuchlehrtextes‘ auf der Grundlage der kognitionspsychologischen Schematheorie und unter Einbeziehung textlinguistischer Ansätze als eine textimmanente und analytisch zugängliche Größe konzipiert. Anschließend wird das Lehrpotential von fünf Lehrtexten ausgewählter aktueller Schulbücher der Jahrgangsstufen 6 und 7 zu den Inhaltsbereichen ‚Brüche‘ und ‚lineare Funktionen‘ analysiert. Es zeigt sich, dass die untersuchten Lehrtexte aus deutschen Schulbüchern für Schüler sehr schwer verständlich sind, d.h. es ist kompliziert, einigen Teiltexten im Rahmen des Gesamttextes einen Sinn abzugewinnen. Die Lehrtexte sind insbesondere dann kaum sinnhaft lesbar, wenn ein Schüler versucht, die mitgeteilten Sachverhalte zu verstehen, d.h. Antworten auf die Fragen zu erhalten, warum ein mathematischer Sachverhalt gerade so und nicht anders ist, wozu ein neuer Sachverhalt/Begriff gebraucht wird, wie das Neue mit bereits Bekanntem zusammenhängt usw. Deutlich zugänglicher und sinnhafter erscheinen die Mathematikschulbuchlehrtexte hingegen unter der Annahme, dass ihre zentrale Botschaft in der Mitteilung besteht, welche Aufgabenstellungen in der jeweiligen Lehreinheit vorkommen und wie man sie bearbeitet. Demnach können Schüler anhand dieser Lehrtexte im Wesentlichen lernen, wie sie mit mathematischen Zeichen, die für sie kaum etwas bezeichnen, umgehen sollen. Die hier vorgelegten Analyseergebnisse gewinnen in einem soziologischen Kontext an Tragweite und Brisanz. So lässt sich aus ihnen u.a. die These ableiten, dass die analysierten Lehrtexte keine ‚unglücklichen‘ Einzelfälle sind, sondern dass die ‚Aufgabenorientierung in einem mathematischen Gewand‘ ein Charakteristikum typischer (deutscher) Mathematikschulbuchlehrtexte und – noch grundsätzlicher – einen Wesenszug typischer schulmathematischer Kommunikation darstellt.
Der Zugang zu öffentlichem und privatem Kapital ist für Innovationen unerlässlich. Zur Beantwortung der Frage, wie KMU ihre Innovationstätigkeit in Deutschland derzeit finanzieren, wird anhand eigens erhobener Unternehmensdaten eine Analyse vorgestellt. Hierbei wird zunächst ein originärer Innovationsindex entwickelt, um innovative KMU statistisch sauber zu klassifizieren. Die anschließende Untersuchung des Finanzierungsverhaltens unterschiedlich innovativer KMU zeigt auf, dass je nach Innovationsgrad Nuancen im Finanzierungsmix bestehen. Im Ergebnis wird nachgewiesen, dass die verfügbaren internen Finanzmittel die Innovationstätigkeit und somit das Wachstum innovativer Unternehmen limitieren. Typische Innovationspartner, in Form von Beteiligungskapital (Venture Capital/Private Equity) oder Business Angels, können die aufgezeigte Kapitallücke bisher nicht schließen. Vorwiegend durch öffentliche Subventionen wird der Mangel an Finanzierungsalternativen teilweise kompensiert. Diese empirisch gewonnenen Erkenntnisse werden in den gesamtwirtschaftlichen Kontext eingeordnet und Handlungsnotwendigkeit sowie Vorschläge präsentiert. Die bisherige Forschungs- und Innovationsförderung wird aus der Perspektive innovativer KMU kritisch beleuchtet und es werden Alternativen für die deutsche Förderpolitik - u.a. im internationalen Vergleich - abgeleitet.
Die steuerrechtliche Behandlung der Religionsgemeindschaften in Deutschland im Vergleich zu Südkorea
(2015)
Der Franchisevertrag
(2015)
Anfang der 1970er-Jahre engagierte sich eine Gruppe junger DDR-Autorinnen und Autoren für eine kritische, öffentliche Auseinandersetzung mit den Widersprüchen des realsozialistischen Alltags. Klaus Schlesinger (1937 2001) war neben Ulrich Plenzdorf und Jurek Becker einer ihrer profiliertesten Akteure. In dem vorliegenden Buch verfolgt Jan Kostka dessen künstlerische Entwicklung, indem er jene Texte und Bücher interpretiert, die Schlesinger bis zu seiner Übersiedlung nach Westberlin geschrieben hatte. Dabei gibt er Einblicke in das literarische Leben Berlins, in journalistische Initiativen und verlagspolitische Strategien aber auch in die westliche Rezeption der DDR-Literatur. Den zum Teil unveröffentlichten Nachlass Schlesingers aufarbeitend, vermittelt Jan Kostka das spezifische Literaturverständnis des Autors: die Benennung und Zuspitzung gesellschaftlicher Konfliktlagen, ohne diese durch vorschnelle Antworten und selbstgewisse Schuldzuweisungen abzuschwächen.
In den letzten Jahrzehnten ist der Trend der Verselbstständigung in vielen Kommunen zu beobachten. Ein Großteil der öffentlichen Leistungserbringer wird mittlerweile als privatrechtliche Gesellschaften in einem wettbewerbsorientierten Umfeld geführt. Während viele Forscher Ausgliederungen in Form von nachgeordneten Behörden auf Bundesebene untersuchen und diese Reformwelle als einen faktischen Autonomisierungsprozess beschreiben, gibt es nur einige wenige Studien, die sich explizit mit den Autonomisierungstendenzen auf Kommunalebene auseinandersetzen. Daher fehlt es an empirischen Erkenntnissen zur Steuerung der kommunalen Beteiligungen.
In dieser Arbeit werden die Steuerungsarrangements deutscher Großstädte erstmals aus Sicht der Gesteuerten beleuchtet. Das Untersuchungsziel der vorliegenden Forschungsarbeit besteht darin, Flexibilisierungstendenzen in mehrheitlich kommunalen Unternehmen zu identifizieren und hierfür Erklärungsfaktoren zu identifizieren. Die Forschungsfrage lautet: Welche instrumentellen und relationalen Faktoren beeinflussen die Managementautonomie in kommunalen Mehrheitsbeteiligungen?
Dabei interessiert insbesondere die Einflussnahme der Kommunen auf verschiedene Tätigkeitsbereiche ihrer Ausgliederungen. Über diese unternehmensspezifischen Sachverhalte ist in Deutschland fast nichts und international nur sehr wenig Empirisches bekannt. Zur Beantwortung der Forschungsfrage hat der Autor auf Basis der Transaktionskosten- und der Social-Exchange-Theorie einen Analyserahmen erstellt. Die aufgestellten Hypothesen wurden mit einer großflächigen Umfrage bei 243 Unternehmen in den 39 größten deutschen Städten empirisch getestet.
Im Ergebnis zeigen sich mehrere empirische Erkenntnisse: Erstens konnten mittels Faktorenanalyse vier unabhängige Faktoren von Managementautonomie in kommunalen Unternehmen identifiziert werden: Personalautonomie, Generelles Management, Preisautonomie und Strategische Fragen. Während die Kommunen ihren Beteiligungen einen hohen Grad an Personalautonomie zugestehen, unterliegen vor allem strategische Investitionsentscheidungen wie die finanzielle Beteiligung an Tochterfirmen, große Projektvorhaben, Diversifikationsentscheidungen oder Kreditautfnahmen einem starken politischen Einfluss.
Zweitens führt eine Rechtsformänderung und die Platzierung in einem Wettbewerbsumfeld (auch bekannt als Corporatisation) vor allem zu einer größeren Flexibilisierung der Personal- und Preispolitik, wirkt sich allerdings wenig auf die weiteren Faktoren der Managementautonomie, Generelles Management und Strategische Entscheidungen, aus. Somit behalten die Kommunen ihre Möglichkeit, auf wichtige Unternehmensfragen der Beteiligung Einfluss zu nehmen, auch im Fall einer Formalprivatisierung bei.
Letztlich können zur Erklärung der Autonomiefaktoren transaktionskostenbasierte und relationale Faktoren ergänzend herangezogen werden. In den Transaktionsspezifika wirken vor allem der wahrgenommene Wettbewerb in der Branche, die Messbarkeit der Leistung, Branchenvariablen, die Anzahl der Politiker im Aufsichtsrat und die eingesetzten Steuerungsmechanismen. In den relationalen Faktoren setzen sich die Variablen gegenseitiges Vertrauen, Effektivität der Aufsichtsräte, Informationsaustausch, Rollenkonflikte, Rollenambivalenzen und Geschäftsführererfahrung im Sektor durch.
Die Dissertation mit dem Thema „Demografie und politischer Reduktionismus – eine Diskursanalyse der Demografiepolitik in Deutschland“ knüpft an die Debatte um die Demografisierung an, die sich damit beschäftigt, dass gesellschaftliche Entwicklungen häufig zu sehr aus einer demografischen Perspektive betrachtet und beschrieben werden. Sie analysiert die zum Teil noch jungen Diskurse, die durch Akteure in Wissenschaft, Politik und Publizistik zu den demografiepolitischen Strategien und Aktivitäten der Bundesregierung geführt werden.
Dabei werden Teilbereiche der Gesellschaft, darunter insbesondere die soziale Sicherung, die Generationenbeziehungen sowie die ökonomische Entwicklung und auch räumliche Aspekte der Demografie, in den Blick genommen. Es werden ausgewählte Zusammenhänge zwischen gesellschaftlichen Entwicklungen und demografischen Veränderungen reflektiert, denen ein kausales Beziehungsverhältnis bescheinigt wird. Es wird aufgezeigt, wo mit Verweis auf die Demografie lediglich Deutungsangebote geschaffen und Kausalbehauptungen aufgestellt werden.
Von besonderem Untersuchungsinteresse ist hierbei die Demografie als Argument, um politisches, wirtschaftliches und soziales Handeln zu legitimieren und ein gesellschaftliches Klima der Akzeptanz zu erzeugen. Wo erweist sich die Demografie als ein Spekulationsobjekt – wo ist sie erwiesene, überprüfbare Kausalität? Und wo ist die Grenze zur Instrumentalisierung der Demografie zu ziehen? Es wird belegt, dass eine Gelegenheitsdemografie vor allem aus drei Gründen praktiziert wird: Sie verschafft organisierten Interessen Gehör, sie bietet Orientierung in komplexen Gesellschaften und sie dient als Beurteilungsmaßstab der Bewertung von gesellschaftlichen Entwicklungen.
Die aktuelle Konjunktur von Diskursen zum demografischen Wandel sorgt dafür, dass die Gelegenheiten, mit Demografie zu argumentieren, immer wieder reproduziert werden. In der Folge werden nicht nur gesellschaftliche Entwicklungen zu sehr auf demografische Komponenten zurückgeführt. Auch das familien-, sozial-, migrations- und wirtschaftspolitische Denken und Handeln wird häufig über das Maß tatsächlicher Ursache-Wirkungs-Zusammenhänge hinaus auf vermeintliche demografische Gesetzmäßigkeiten reduziert (Reduktionismus).
Die Diskursanalyse der Demografiepolitik in Deutschland will die Bedeutung des demografischen Wandels für die Gesellschaft dabei nicht in Frage stellen. Sie soll für einen kritischeren Umgang mit der Demografie sensibilisieren. Dazu gehört auch, aufzuzeigen, dass die Demografie ein Faktor unter vielen ist.
Empathie im Gespräch
(2015)
Wie wird Empathie im Gespräch zum Ausdruck gebracht? Dieser Frage geht die vorliegende Untersuchung von Erzählungen persönlicher Erlebnisse in deutschen Alltags- und Radiogesprächen nach. Es wird gezeigt, welche verbalen, vokalen und kinesischen Ressourcen GesprächsteilnehmerInnen für kommunikative Verfahren verwenden, die sozial-emotionales Verstehen und/oder Mitgefühl nahe legen. Die theoretisch-methodische Grundlage der Arbeit bilden Konversationsanalyse, Interaktionale Linguistik und Multimodalitätsforschung. Phänomene des sozialen Miteinanders wie Empathie, Verstehen, Verständnis und Affektivität werden als interaktional hervorgebrachte Darstellungen analysiert, so wie GesprächsteilnehmerInnen sie füreinander konstruieren und interpretieren. Empathie wird also als beobachtbares Phänomen tatsächlicher Lebenswelt beschrieben. Diese interaktionslinguistische Perspektive leistet nicht nur einen empirischen Beitrag zur konversationsanalytischen Affektivitätsforschung. Sie bereichert darüber hinaus die aktuelle disziplinübergreifende Empathieforschung.
Der Beitrag der Dissertation „Theoriebasierte Betreuung vom Schulpraktikum im Lehramtsstudium Englisch“ zum wissenschaftlichen Diskurs liegt in der Verbindung von Theoriebereichen der Professionalisierungsforschung und angewandten Linguistik mit Untersuchungen zur hochschuldidaktischen Begleitung und Betreuung im ersten Unterrichtspraktikum des Lehramtsstudiums, dem fachdidaktischen Tagespraktikum, an der Universität Potsdam. Ein interaktionsanalytisches Vorgehen wurde eingesetzt zur Weiterentwicklung des hochschuldidaktischen Settings einer disziplinenverbindenden, fachwissenschaftlichen Begleitung von Praktika im komplexen Kontext Schule. Die Implementierung entsprechender Formate ins reguläre Studium wurde in einer über drei Jahre angelegten iterativen Studie turnusmäßig evaluiert.
Modenschauen
(2015)
Wie kommt das Neue der Mode auf die Welt? Alicia Kühl zeigt, dass das Neue nicht mehr im Modedesign, sondern im Modenschaudesign behauptet wird. In ihrer modetheoretisch fundierten Arbeit, für die sie zudem Theorien des Performativen, des Raumes, der Atmosphären und des Neuen hinzuzieht, untersucht sie Modenschauen ausgewählter Haute-Couture-und Prêt-à-porter-Designer_innen der letzten 30 Jahre und zeichnet nach, inwieweit die in ihnen erzeugten Atmosphären als Lösung einer vestimentären »Inventionsbredouille« eingesetzt werden. Die Studie hinterfragt erstmals die Funktion und Position der Modenschau innerhalb des Modezyklus, was auch eine Neubewertung der Rolle der Kleidung nach sich zieht.
Im Hinblick auf die Problematik der Umweltverschmutzung durch die Nutzung fossiler Brennstoffe ist es nötig, eine langfristig stabile und umweltfreundliche Energieversorgung zu gewährleisten. Eine Möglichkeit, den Energiebedarf CO2-neutral zu decken, ist die Nutzung von Biogas. Hierbei spielt der Einsatz von biogenen Reststoffen, die durch einen hohen Anteil an Kohlenhydraten, Fetten und Proteinen gekennzeichnet sind und daher ein hohes Biogaspotential besitzen, eine wichtige Rolle. Voraussetzung für die Effizienz und Rentabilität solcher Anlagen ist u. a. ein stabiler Gasbildungsprozess. Da bisher noch nicht alle Aspekte der Biogasbildung vollständig verstanden sind, werden die Anlagen oft nicht optimal ausgelastet, um Prozessstörungen wie z. B. Übersäuerung zu vermeiden.
Um dennoch auftretende Prozessstörungen zu beheben, können unterschiedliche Maßnahmen durchgeführt werden. Neben der Senkung der Raumbelastung, ist es möglich, den pH-Wert durch die Zugabe von Natronlauge oder Calciumoxid anzuheben.
In der vorliegenden Arbeit wurden sowohl Prozessstörungen als auch Prozessregenerierungen an einer großtechnischen Biogasanlage und in Laborversuchen untersucht. Dabei galt es, neben den physikalischen und chemischen Parametern, die mikrobielle Biozönose mit Hilfe des genetischen Fingerprintings zu charakterisieren und Änderungen zu detektieren.
Während der Prozessregenerierungen wurden nach der Zugabe von CaO Veränderungen des Gärrestes beobachtet. Es bildeten sich Pellets, die im Hinblick auf ihre Funktion für die Prozessregenerierung und die Prozessstabilität molekularbiologisch und mikroskopisch untersucht wurden. Es wurde weiterhin der Frage nachgegangen, welche Rolle die Mikroorganismen bei der Entstehung der Pellets spielen.
Die vor allem aus Calcium und Fettsäuren bestehenden Pellets dienten als Aufwuchsflächen für verschiedene Mikroorganismen. Die Bildung von Biofilmen, wie sie auf und in den Pellets nachgewiesen wurde, bot für Mikroorganismen einen Schutz vor negativen Umwelteinflüssen wie z. B. hohe Propionsäurekonzentrationen. Unter diesen günstigen Bedingungen war die Bildung von Biogas auch unter hohen Wasserstoffpartialdrücken, die den Abbau von Propionsäure hemmten, möglich. Als Indikator für bessere Lebensbedingungen wurde im Laborversuch ein Methanoculleus receptaculi-verwandter Organismus identifiziert. Dieses methanogene Archaeon wurde im Pellet nachgewiesen, während es im Gärrest erst nach der Prozessregenerierung detektiert wurde. Der Nachweis eines im Vergleich zum umgebenden Gärrest höheren Anteils an Archaeen im Kern der Pellets sowie von Biofilmen/EPS, verschiedenen Phosphatsalzen und schwerlöslichen Calciumsalzen zeigte, dass sowohl Präzipitation und Adsorption als auch Degradation von LCFA dazu führen, dass deren Konzentration im flüssigen Gärrest gesenkt wird. Dadurch nimmt die Hemmung auf die Biozönose ab und die Biogasbildungsrate steigt. Daher ist der Abbau der Fettsäuren auch bei einem niedrigen pH-Wert und unter hohen Wasserstoffpartialdrücken möglich und der Biogasbildungsprozess ist langfristig stabil. Die Bildung von Pellets unterstützt die Prozessstabilität, sofern diese nicht zu groß werden und dann u. a. die Durchmischung behindern und den Ablauf verstopfen.
Nach erfolgreicher Prozessstabilisierung wurden keine Pellets im Gärrest beobachtet. Der Abbau des organischen Materials wurde sowohl durch die steigende Calciumkonzentration als auch die steigende Gasproduktion angezeigt.
Gut ausgebildete Schreibkompetenzen gelten als zentrale Voraussetzung für den schulischen Erfolg. Wenngleich die schriftliche Textproduktion unbestritten fester Bestandteil des Deutschunterrichts ist, wird vielfach beklagt, dass die vorhandenen Schreibkompetenzen unzureichend sind. Blickt man auf die fachdidaktische Forschung so zeigt sich, dass Schreibkompetenz ein schwer zu definierendes Phänomen bleibt und innerhalb der schreibdidaktischen Forschung strittig ist, wie Schreibkompetenz – insbesondere nach Erwerb der grundlegenden Schreibfertigkeiten – am Besten entwickelt werden kann. Zudem gilt für das Fach Deutsch, insbesondere den Aufgabenbereich „Texte verfassen“, das eine empirische Fundierung der Fachdidaktik bisher kaum realisiert wurde.
Vor diesem Hintergrund wurde in der vorgelegten Arbeit ein Programm zu Förderung der schriftlichen Erzählfähigkeit von Fünftklässlern entwickelt und anschließend in der regulären Unterrichtspraxis eingesetzt und begleitend evaluiert. Methodisch orientiert sich die Arbeit dabei im Hinblick auf die Konzeption, Umsetzung und Evaluation des Förderprogramms an den von Einsiedler postulierten „Standards der (didaktischen) Entwicklungsforschung“.
Bei der im ersten Schritt erfolgten Konzeption des Förderprogramms ging es darum eine spezifische, didaktische Konzeption, die Kombination sprachstruktur- und (lern)prozessbezogenener Elemente, sprachwissenschaftlich basiert und pädagogisch-didaktisch begründet zu entwickeln. Bei der hierzu notwendigen Integration verschiedener theoretischer Zugänge unterschiedlicher Fachdisziplinen galt es vorhandene Ansätze im Hinblick auf interne Anschlussmöglichkeiten auszuloten und auf diesem Wege einen sich gegenseitig ergänzenden, umfassenden Bezugsrahmen zu schaffen. Dabei gelang - unter Einbeziehung von Modellen und Befunden aus der Schreibentwicklungsforschung - die innerhalb der Schreibforschung vielfach geforderte, jedoch bisher fehlende Integration von strukturellen Ansätzen aus der linguistischen Schreibforschung mit den innerhalb der Kognitionspsychologie favorisierten prozessuellen Ansätzen.
Auf dieser Grundlage wurde ein aufgabenbasiertes Programm mit insgesamt acht verschiedenen Fördermodulen entwickelt, aufgabenbasiert deshalb, weil dies nicht nur einen lehrergesteuerten aber schülerzentrierten Unterricht ermöglicht, sondern auch einen adaptiven Unterricht, somit den spezifischen Anforderungen des Unterrichts in heterogenen Lerngruppen gerecht wird, was angesichts der zunehmenden (sprachlich-kulturellen) Heterogenität in regulären Schulklassen sinnvoll scheint.
In einem zweiten Schritt wurde innerhalb einer Pilotstudie die Umsetzbarkeit des Förderprogramms im schulischen Kontext erprobt. Unter Kontrolle seiner praktischen Umsetzbarkeit (Machbarkeitshypothese) wurde im Anschluss daran die Wirksamkeit des Förderprogramms im Hinblick auf eine Steigerung in den produktbezogenen Schreibmaßen (Wortschatzvarianz, Satzkomplexität, lexikalische Dichte, Kohäsionsgrade, Textlänge) und die Stabilität der Fördereffekte untersucht. Dies geschah mittels eines quasiexperimentellen Untersuchungsplans, genauer eines Zweigruppen-Pretest-Posttest-Follow-up-Plans mit Kontrollvariablen.
Grundlage hierfür war eine möglichst heterogene Stichprobe von knapp 200 Schüler/innen. Denn angesichts der angesprochenen zunehmenden Heterogenität in regulären Schulklassen galt es neben der Wirksamkeit und Nachhaltigkeit des Förderprogramms auch dessen Eignung für den Unterricht in heterogenen Lerngruppen zu prüfen. Die Ergebnisse dieser Prüfung sprechen dafür, dass es gelungen ist ein entsprechendes Förderprogramm zu entwickeln.
Trotz dem Auftreten von forschungsmethodischen Schwierigkeiten, die innerhalb der vorgelegten Arbeit ausführlich im Hinblick auf Ursachen und Wirkungen diskutiert werden, können, unter Berücksichtigung des explorativen Charakters der Studie, die Ergebnisse insbesondere zur Wortschatzvarianz und zur Satzkomplexität ebenfalls als Indizien für die Effektivität des Förderprogramms gelten.
Art. 50 EUV in der Fassung des Vertrages von Lissabon normiert erstmals ein Recht für Mitgliedstaaten zum Austritt aus der EU. Manuela Ludewig stellt das Austrittsverfahren dar, diskutiert die Rechtsnatur und den Inhalt des anzustrebenden Austrittsabkommens und befasst sich mit dem Problem, ob ein (partieller) Austritt aus der Währungsunion möglich ist. Insbesondere interessiert die Autorin die Frage, ob die zur Beendigung der Mitgliedschaft in einer internationalen Organisation führenden Tatbestände einen 'notwendigen', d. h. auf die Erhaltung der Organisation, oder einen 'dynamischen', d. h. auf die bessere Realisierung des Organisationszwecks gerichteten Effekt haben können - und zwar allein aufgrund ihrer Existenz, ihrer Instrumentalisierung (Androhung) oder ihrer Verwirklichung.
In der vorliegenden Dissertation werden Migrationsdiskurse in der deutschen Grenzregion zu Polen im Vorfeld der EU-Erweiterung zum 1. Mai 2004 exemplarisch in drei deutschen Grenzstädten, der jeweils westliche Teil der ehemals gemeinsamen, seit 1945 durch eine nationalstaatliche Grenze mit dem jeweils zeitspezifischen Grenzregime geteilten, deutsch-polnischen Zwillingsstädte Frankfurt (Oder) – Słubice, Guben – Gubin und Görlitz – Zgorzelec, analysiert.
Ausgewählt wurde der Untersuchungsraum mit Blick auf die tiefgreifenden europäischen Transformationsprozesse seit den späten 1980er Jahren, die für die örtliche Bevölkerung gravierende lebensweltliche Strukturumbrüche zur Folge hatten. Die Region wurde mit der Vereinigung der beiden deutschen Staaten überdies zu einem zentralen Aktionsraum nationaler und internationaler Migrationspolitik; ihr wurde eine wichtige stellvertretende Funktion betreffend die Zutrittsregelung zugewiesen. Mit der EU-Erweiterung waren für die Region neuerliche, unmittelbare Veränderungen verbunden, die vor Ort gerade auch aufgrund damit (mutmaßlich) einhergehender Migration eher als Bedrohung denn als Chance gedeutet wurden.
Den diskurstheoretischen Hintergrund der Untersuchungen stellen in erster Linie die Arbeiten von Michel Foucault und die von Siegfried Jäger darauf aufruhend konzipierte Kritische Diskursanalyse bereit. Diskurs wird – grob vereinfacht – als Fluss von sozialen Wissensbeständen und Bewusstseinsinhalten durch die Zeit verstanden, der individuelles und kollektives Handeln von Menschen bestimmt; Diskurse sind der Ort, an dem (Be-)Deutungen von Menschen ausgehandelt, verändert und der Wirklichkeit zugewiesen werden. Der Forschungszugang versteht sich als Teil der Neuen Kulturgeographie, die konsequent nicht-essentialistisch und erkenntnistheoretisch nicht-fundamentalistisch ist.
Die Datenbasis der empirischen Analysen repräsentieren zwei Ebenen bzw. Teilsektoren des Diskurses. Zum einen die Berichterstattung der jeweils monopolartigen regionalen Tageszeitung in Frankfurt (Oder), Guben und Görlitz (Märkische Oderzeitung/Frankfurter Stadtbote, Lausitzer Rundschau/Lokalausgabe Guben, Sächsische Zeitung/Görlitzer Zeitung). Zum anderen ein Sample von insgesamt 17 Experteninterviews mit lokalen Funktionsträgern, die mit Blick auf ihr, an ihre spezifische professionelle und/oder ehrenamtliche Tätigkeit gebundenes, praxisgesättigtes Sonder- bzw. Insiderwissen zum Thema Migration ausgewählt und befragt wurden.
Die durchgeführten Analysen verdeutlichen unter anderem die Bedeutung diskurssemantischer Grundfiguren des deutschen Migrationsdiskurses im Sinne politisch und alltagskulturell konservierter migrationskritischer Vorstellungsinhalte und Bedeutungszuweisungen zu Kategorien des Fremden und Konstruktionen von Wir und/vs. Sie. Ebenso explizieren sie eine gravierende Diskrepanz zwischen dem lokalen Staat und der Lebenswelt der lokalen Bevölkerung.
Wissenschaft, Technik und Medien im Werk Alfred Döblins im Kontext der europäischen Avantgarde
(2015)
Ziel dieser Studie ist es die bislang nur sporadisch untersuchten Wechselverhältnisse zwischen den Kulturbereichen Wissenschaft/Technik und Literatur am herausragenden Beispiel des Oeuvres des Schriftstellers und Arztes Alfred Döblin aufzuspüren. Hierbei scheint seine ärztlich-psychiatrische Laufbahn, die eine breite Grundlage wissenschaftlicher Diskurse anbietet, wie auch seine avantgardistische Literaturpraxis diese gegenseitige Befruchtung gefördert zu haben.
Im Hinblick auf den Forschungsgegenstand und -zweck ist ein kulturwissenschaftlicher Ansatz versucht worden. Dieser vielperspektivische Ansatz, der von der Prämisse eines Wechselspiels aller Kulturbereiche untereinander ausgeht, gestattet eine dem Gegenstand angepasste Verknüpfung von verschiedenen Arbeitsmethoden wie der philologisch-literarhistorischen mit der konstruktivistischen und der komparatistischen. Hierbei ist eine Einbeziehung wissenschafts- und technikphilosophischer Reflexion wie auch eine dementsprechend erweiterte kulturhistorische Kontextualisierung vorgenommen worden.
Die hier vorgelegte Analyse fokussiert auf wissenschaftlich-technische Bezüge sowohl in thematischer Hinsicht als auch in der Textgestaltung der schriftstellerischen Werke Döblins bis 1924. Gleichzeitig wird die diskursgeprägte, sprachliche und literarische Dimension seiner wissenschaftlichen Studien und technischer Texte - wie Krankenakte - hervorgehoben. Dieses erweiterte ‚Oeuvre‘-Konzept gestattet die Analyse der psychiatrischen, klinisch-ärztlichen und biochemischen Schriften Döblins sowie seiner Erzählwerke, seiner vielgestaltigen Publizistik und seiner intermedialen Anregungen aus den neuen audiovisuellen Medien. Dadurch wird eine diskurskritische kulturübergreifende Interdiskursivität wie auch eine ‚Hybridität‘ aller Texte aufgezeigt, die die Grundunterschiede zwischen Textsorten und Gattungsgrenzen relativiert.
Ni-based materials for the catalytic conversion of lignocellulosic biomass into valuable products
(2015)
Diese Arbeit untersucht, ob die Rassendiskriminierungskonvention (CERD) auf das Verhalten von Vertragsstaaten außerhalb ihres Staatsgebiets anwendbar ist. Unter Beachtung der bisherigen Rechtsprechung und Praxis anderer Menschenrechtsgremien zur Frage extraterritorialer Anwendbarkeit von Menschenrechtsverträgen werden die Entstehungsgeschichte, die Vorarbeiten zur CERD und die Praxis des CERD-Ausschusses analysiert. Diese Untersuchung bezieht auch das Verhalten der Vertragsstaaten mit ein. Die Struktur der CERD weist gegenüber anderen Menschenrechtsverträgen, die zur gleichen Zeit entstanden sind, Besonderheiten auf. Nur einzelne materielle Bestimmungen setzen die Ausübung von Hoheitsgewalt voraus. Unter diesem Aspekt sowie unter Berücksichtigung der in ihr enthaltenen Staatenpflichten wird die CERD in Bezug auf ihre extraterritoriale Anwendbarkeit erörtert. Anhand der Grundsätze des Völkerrechts werden Art und Umfang der Verpflichtungen, die den Vertragsstaaten unter der CERD auf fremdem Staatsgebiet aufgegeben werden können, diskutiert.
Faseroptische Spektroskopie mit hochfrequent modulierten Diodenlasern zur Analyse kleinster Volumina
(2015)
Das Thema der Arbeit sind Formen wissenschaftlicher Wissensproduktion in anwendungsbezogenen Forschungsprojekten und ihre Effekte auf Technisierungsprozesse. Diese untersuche ich am Beispiel eines öffentlich geförderten Forschungsprojekts, das ein automatisiertes Videoüberwachungssystem entwickelt. Als anwendungsbezogenes Forschungsprojekt unterliegt die Entwicklung des Videoüberwachungssystems besonderen Rahmenbedingungen: Die Arbeit der Forschergruppe soll erstens auf makrosoziale Kriminalitätsprobleme reagieren, zweitens politische Hoffnungen auf einen erfolgreichen Technologietransfer erfüllen, und drittens dem innerdisziplinären Erkenntnisfortschritt dienen. Daraus ergeben sich alltagspraktische Handlungsprobleme für die Forschergruppe, da sie zwischen heterogenen und möglicherweise widersprüchlichen Erwartungshaltungen vermitteln muss. Diese Vermittlungsstrategien beeinflussen jedoch in die Entscheidungsprozesse, wie und in welchem Ausmaß Überwachungsprozesse technisiert werden.
Das Promotionsprojekt geht der Frage nach, auf welche Weise die Forschergruppe die Integration der verschiedenen Erwartungshaltungen bewältigt, und welche Auswirkungen diese besondere Form des anwendungsbezogenen Forschens auf die Entwicklung der Überwachungstechnologie hat. Auf der Grundlage einer ethnographischen Fallstudie beantworte ich die Frage durch den Nachweis, dass die präferierten Lösungen der Forschergruppe sich eher an disziplinären Fragestellungen ausrichten als an ihrer Praxistauglichkeit. Dies wird besonders darin sichtbar, dass die ursprünglichen Problemstellungen im Verlaufe des Arbeitsprozesses anhand der tatsächlich verfügbaren Instrumente umdefiniert werden. Die daraus resultierenden Konflikte mit den gesellschaftlichen Erwartungshaltungen bewältigt die Forschergruppe, indem sie lernt, die Anwendungsbezogenheit gegenüber der Förderinstitution sorgfältig zu inszenieren.
Analphabetismus und Teilhabe
(2015)
Aus bildungstheoretisch-gesellschaftskritischer Perspektive stellt sich Lernen als soziales Handeln in gesellschaftlich-vermittelten Verhältnissen – Möglichkeiten wie auch Begrenzungen – dar. Funktionaler Analphabetismus ist mit einem bundesweiten Anteil von 14% der erwerbsfähigen Bevölkerung oder 7,5 Millionen Analphabeten in Deutschland nicht nur ein bildungspolitisches und -praktisches, sondern auch ein wissenschaftlich zu untersuchendes Phänomen. Es gibt zahlreiche Untersuchungen, die sich mit dieser Thematik auseinandersetzen und Anknüpfungspunkte für die vorliegende Studie bieten. Aus der Zielgruppenforschung beispielsweise ist bekannt, dass die Hauptadressaten der Männer, der Älteren und der Bildungsfernen nicht adäquat erreicht bzw. als Teilnehmende gewonnen werden. Aus der Teilnehmendenforschung sind Abbrüche und Drop-Outs bekannt.
Warum Analphabeten im Erwachsenenalter, also nach der Aneignung vielfältigster Bewältigungsstrategien, durch das sich das Phänomen einer direkten Sichtbarkeit entzieht, dennoch beginnen das Lesen und Schreiben (wieder) zu lernen, wird bislang weder bildungs- noch lerntheoretisch untersucht. Im Rahmen der vorliegenden Erwachsenenbildungsstudie werden genau diese Lernanlässe empirisch herausgearbeitet.
Als Heuristik wird auf eine subjekttheoretische Theoriefolie rekurriert, die sich in besonderer Weise eignet Lernbegründungen im Kontext gesellschaftlich verhafteter Biografien sichtbar zu machen. Lernforschung im Begründungsmodell muss dabei auf eine Methodik zurückgreifen, die die Perspektive des Subjekts, Bedeutungszusammenhänge und typische Sinnstrukturen hervorbringen kann. Daher wird ein auf Einzelfallstudien basierendes, qualitatives Forschungsdesign gewählt, das Daten aus der Erhebung mittels problemzentrierter Interviews bereitstellt, die eine Auswertung innerhalb der Forschungsstrategie der Grounded Theory erfahren und in einer empirisch begründeten Typenbildung münden. Dieses Design ermöglicht die Rekonstruktion typischer Lernanlässe und im Ergebnis die Entwicklung einer gegenstandsbezogene Theorie mittlerer Reichweite.
Aus der vorliegenden Bedeutungs-Begründungsanalyse konnten empirisch fünf Lernbegründungstypen ausdifferenziert werden, die sich im Spannungsverhältnis von Teilhabeausrichtung und Widersprüchlichkeit bewegen und in ihrer Komplexität mittels der drei Schlüsselkategorien Bedeutungsraum, Reflexion der sozialen Eingebundenheit und Kompetenzen sowie Lernen bzw. dem Erleben der Diskrepanzerfahrung zwischen Lesen-Wollen und Lesen-Können dargestellt werden. Das Spektrum der Lernbegründungstypen reicht von teilhabesicherndem resignierten Lernen, bei dem die Sicherung des bedrohten Status quo im Vordergrund steht und die Welt als nicht gestaltbar erlebt wird, bis hin zu vielschichtigem teilhabeerweiternden Lernen, das auf die Erweiterung der eigenen Handlungsmöglichkeiten zielt und die umfangreichste Reflexion der sozialen Eingebundenheit und Kompetenzen aufweist. Funktionale Analphabeten begründen ihr Lernen und Nicht-Lernen vor dem Hintergrund ihrer sozialen Situation, ihrer Begrenzungen und Möglichkeiten: Schriftsprachlernen erhält erst im Kontext gesellschaftlicher Teilhabe und dessen Reflexion eine Bedeutung.
Mit der Einordnung der Lernbegründungen funktionaler Analphabeten in: erstens, Diskurse der Bildungsbenachteiligung durch Exklusionsprozesse; zweitens, die lerntheoretische Bedeutung von Inklusionsprozessen und drittens, den internationalen Theorieansatz transformativen Lernens durch die Integration der Reflexionskategorie, erfolgt eine Erweiterung bildungs- und lerntheoretischer Ansätze. In dieser Arbeit werden Alphabetisierungs- und Erwachsenen-bildungsforschung verbunden und in den jeweiligen Diskurs integriert. Weitere Anschluss- und Verwertungsmöglichkeiten in der Bildungsforschung wären denkbar. Die Untersuchung von Lernbegründungen im Längsschnitt beispielsweise kann Transformationsprozesse rekonstruierbar machen und somit Erträge für eine Bildungsprozessforschung liefern. Bildungspraktisch können die Lernbegründungstypen einerseits der Teilnehmergewinnung dienen, andererseits Ausgangspunkt für reflexive Lernbegleitungskonzepte sein, die Lernbegründungen zur Sprache bringen und die soziale Eingebundenheit thematisieren und damit Lernprozesse unterstützen.
Das deutsche Strafgesetzbuch stellt nur die Fremdtötung und die Tötung auf Verlangen in den §§ 211ff. StGB unter Strafe. Der Suizid hingegen stellt keine Straftat dar, weshalb auch die Teilnahme daran straflos bleibt. Vor dem Hintergrund der sich hieraus ergebenden Abgrenzungsschwierigkeiten gibt es seit 2006 verschiedene Gesetzesvorhaben, die Suizidmitwirkung, insbesondere durch Sterbehilfeorganisationen, strafrechtlich zu erfassen. Die vorliegende Arbeit erörtert die in diesem Zusammenhang entstehende Fragestellung, ob die Teilnahme am Suizid ein strafwürdiges Verhalten darstellt, welches strafrechtlich geahndet werden muss. Hierzu werden auch die vorgenannten Gesetzesvorhaben einer kritischen Stellungnahme unterzogen und entsprechende ausländische Regelungen betrachtet. Neben den Entwürfen eines solchen Straftatbestandes geht die Arbeit außerdem auf rechtliche Lösungen außerhalb des Strafrechts ein und stellt abschließend fest, ob ein Erfordernis zur Änderung der bestehenden Rechtslage im Strafgesetzbuch besteht.
Viele klinische Schnelltestsysteme benötigen vorpräparierte oder aufgereinigte Analyte mit frisch hergestellten Lösungen. Fernab standardisierter Laborbedingungen wie z.B. in Entwicklungsländern oder Krisengebieten sind solche Voraussetzungen oft nur unter einem hohen Aufwand herstellbar.
Zusätzlich stellt die erforderliche Sensitivität die Entwicklung einfach zu handhabender Testsysteme vor große Herausforderungen.
Autokatalytische Reaktionen, die sich mit Hilfe sehr geringer Initiatorkonzentrationen auslösen lassen, können hier eine Perspektive für Signalverstärkungsprozesse bieten.
Aus diesem Grund wird im ersten Teil der vorliegenden Arbeit das Verhalten der autokatalytischen Arsenit-Jodat-Reaktion in einem mikrofluidischen Kanal untersucht. Dabei werden insbesondere die diffusiven und konvektiven Einflüsse auf die Reaktionskinetik im Vergleich zu makroskopischen Volumenmengen betrachtet.
Im zweiten Teil werden thermoresponsive Hydrogele mit einem kanalstrukturierten Papiernetzwerk zu einem neuartigen, kapillargetriebenen, extern steuerbaren Mikrofluidik-System kombiniert. Das hier vorgestellte Konzept durch Hydrogele ein papierbasiertes LOC-System zu steuern, ermöglicht zukünftig die Herstellung von komplexeren, steuerbaren Point-Of-Care Testsystemen (POCT). Durch z.B. einen thermischen Stimulus, wird das Lösungsverhalten eines Hydrogels so verändert, dass die gespeicherte Flüssigkeit freigesetzt und durch die Kapillarkraft des Papierkanals ins System transportiert wird. Die Eigenschaften dieses Gelnetzwerks können dabei so eingestellt werden, dass eine Freisetzung von Flüssigkeiten sogar bei Körpertemperatur möglich wäre und damit eine Anwendung gänzlich ohne weitere Hilfsmittel denkbar ist. Für die Anwendung notwendige Chemikalien oder Enzyme lassen sich hierbei bequem in getrocknetem Zustand im Papiersubstrat vorlagern und bei Bedarf in Lösung bringen.
Im abschließenden dritten Teil der Arbeit wird ein durch Hydrogele betriebener, Antikörper-basierter Mikroorganismenschnelltest für Escherichia coli präsentiert. Darüber hinaus wird weiterführend eine einfache Methode zur Funktionalisierung eines Hydrogels mit Biomolekülen über EDC/NHS-Kopplung vorgestellt.
Volksschädlinge vor Gericht
(2015)
Deutschland, September 1939. Der Zweite Weltkrieg hat gerade begonnen, die Kriegsmoral der deutschen Bevölkerung musste unter allen Umständen aufrechterhalten werden. Um ein Abklingen wie im Ersten Weltkrieg durch Aushungern zu vermeiden, musste die Versorgung der Bevölkerung mit Lebensmitteln und anderen lebenswichtigen Dingen stets gewährleistet sein.Jana Nüchterlein analysiert die am 5. September 1939 initiierte Volksschädlingsverordnung, nach der jeder, der die Verteilung verknappter und bezugsscheinpflichtiger Waren gefährdete, schwer bestraft werden sollte. Sie zeigt, dass mit der Verordnung vorrangig Ziele wie Abschreckung und Vertrauen der Bevölkerung in die Justiz (und damit in das System) erreicht werden sollten, und wie letztendlich – durch weitgefasste Tatbestände, scharfe Strafandrohungen und weit gespannte Strafrahmen – selbst die Gewährleistung der Durchführung kriegswirtschaftlicher Maßnahmen und die Unterbindung sämtlicher Formen der Sabotage zum Ziel wurden.
Ehrensache Satire
(2015)
Satirische Äußerungen und Darstellungen sind weit verbreitet und geben immer wieder zu – leider nicht nur rechtlichen – Auseinandersetzungen Anlass. Durch den seit Jahren schwelenden sogenannten „Karikaturenstreit“, gipfelnd in den Anschlägen von Paris Anfang 2015, hat die Thematik eine geradezu dramatische Brisanz erlangt. Neben dem religiösen Bekenntnis ist klassischer Stein des Anstoßes aber immer noch die Ehre.
Die Untersuchung beleuchtet kritisch die Handhabung des Satirebegriffs in Rechtsprechung und juristischer Literatur und überprüft nach einer wesensgerechten Bestimmung des Satirischen, insbesondere unter Heranziehung der literaturwissenschaftlichen Beurteilung und der Einschätzung der Satiriker selbst, dem dreistufigen Deliktsaufbau folgend und anhand anschaulicher Beispiele, ob und unter welchen Voraussetzungen eine Strafbarkeit durch satirische Ehrbeeinträchtigungen in Betracht kommen kann. Besondere Bedeutung erfährt in diesem Zusammenhang die Frage nach der Einschlägigkeit der Meinungs- oder Kunstfreiheit und deren Einordnung in die strafrechtliche Prüfung sowie die eines möglichen Unrechts- oder Schuldausschlusses unter Berücksichtigung der spezifischen Funktion, welche insbesondere die politische Satire innerhalb der Gesellschaft wahrnimmt.
Im Rahmen der EU-weiten REACH-Verordnung haben Alternativmethoden zum Tierversuch in der Toxikologie an Bedeutung gewonnen. Die Alternativmethoden gliedern sich auf in In-vitro- und In-silico-Methoden. In dieser Dissertation wurden verschiedene Konzepte der In-silico-Toxikologie behandelt.
Die bearbeiteten Themen reichen von quantitativen Strukturaktivitätsbeziehungen (QSAR) über eine neue Herangehensweise an das gängige Konzept zur Festlegung von Grenzwerten bis hin zu computerbasierten Modellierungen zum Alkohol- und Bisphenol-A-Stoffwechsel.
Das Kapitel über QSAR befasst sich im Wesentlichen mit der Erstellung und Analyse einer Datenbank mit 878 Substanzen, die sich aus Tierversuchsstudien aus dem Archiv des Bundesinstituts für Risikobewertung zusammensetzt. Das Design wurde dabei an eine bereits bestehende Datenbank angepasst, um so einen möglichst großen Datenpool zu generieren. In der Analyse konnte u.a. gezeigt werden, dass Stoffe mit niedrigerem Molekulargewicht ein erhöhtes Potential für toxikologische Schäden aufwiesen als größere Moleküle.
Mit Hilfe des sogenannten TTC-Konzepts können Grenzwerte für Stoffe geringer Exposition festgelegt werden, zu denen keine toxikologischen Daten zur Verfügung stehen. In dieser Arbeit wurden für die Stoffe dreier Datenbanken entsprechende Grenzwerte festgelegt. Es erfolgte zunächst eine gängige strukturbasierte Aufteilung der Substanzen in die Kategorien "nicht toxisch", "möglicherweise toxisch" und "eindeutig toxisch". Substanzen, die aufgrund ihrer Struktur in eine der drei Klassen eingeordnet werden, erhalten den entsprechenden Grenzwert. Da in die dritte Klasse auch Stoffe eingeordnet werden, deren Toxizität nicht bestimmbar ist, ist sie sehr groß. Daher wurden in dieser Arbeit die ersten beiden Klassen zusammengelgt, um einen größeren Datenpool zu ermöglichen. Eine weitere Neuerung umfasst die Erstellung eines internen Grenzwerts. Diese Vorgehensweise hat den Vorteil, dass der Expositionsweg herausgerechnet wird und somit beispielsweise Studien mit oraler Verabreichung mit Studien dermaler Verabreichung verglichen werden können.
Mittels physiologisch basiertem kinetischem Modelling ist es möglich, Vorgänge im menschlichen Körper mit Hilfe spezieller Software nachzuvollziehen. Durch diese Vorgehensweise können Expositionen von Chemikalien simuliert werden. In einem Teil der Arbeit wurden Alkoholexpositionen von gestillten Neugeborenen simuliert, deren Mütter unmittelbar zuvor alkoholische Getränke konsumiert hatten. Mit dem Modell konnte gezeigt werden, dass die Expositionen des Kindes durchweg gering waren. Nach einem Glas Wein wurden Spitzenkonzentrationen im Blut von Neugeborenen von 0,0034 Promille ermittelt. Zum Vergleich wurde die Exposition durch ein für Säuglinge zugelassenes alkoholhaltiges pflanzliches Arzneimittel simuliert. Hier wurden Spitzenkonzentrationen von 0,0141 Promille erreicht. Daher scheinen Empfehlungen wie gelegentlicher Konsum ohne schädigende Wirkung auf das Kind wissenschaftlich fundiert zu sein.
Ein weiteres Kinetik-Modell befasste sich mit dem Stoffwechsel von Bisphenol A. Teils widersprüchliche Daten zur Belastung mit BPA in der wissenschaftlichen Literatur führen wiederholt zu Anregungen, den Grenzwert der Chemikalie anzupassen. Die Funktionalität der am Metabolismus beteiligten Enzyme kann je nach Individuum unterschiedlich ausgeprägt sein. Mittels Modellings konnte hier gezeigt werden, dass dies maßgeblich dazu führt, dass sich berechnete Plasmaspiegel von Individuen bis zu 4,7-fach unterscheiden.
Die Arbeit konnte somit einen Beitrag zur Nutzung und Weiterentwicklung von In-silico-Modellen für diverse toxikologische Fragestellungen leisten.
Italien und Deutschland sind zwei europäische Länder, welche im gemeinsamen Bankenmarkt und Währungsraum sehr unterschiedliche Bankensysteme repräsentieren. In Italien herrschen Privatbanken und der soziale Auftrag wird von privaten Bankenstiftungen umgesetzt. In Deutschland wird dagegen diese Funktion vor allem durch den öffentlichen Auftrag von öffentlich-rechtlichen Instituten erfüllt. Vor dem Hintergrund der dramatischen Ereignisse der letzten Finanzkrise und der darauffolgenden Neuinterpretation der Rolle von Finanzmärkten haben die Ansprüche verschiedener Stakeholder-Gruppen an das Bankgeschäft sowie deren Erfüllung an Aktualität gewonnen. Nach einer theoretisch-deduktiven und -induktiven Einführung in die Thematik des Stakeholder-Banking und ihrer heutigen Regelung wird eine qualitative Kennzahlenanalyse des deutschen und italienischen Bankenmarktes durchgeführt. Weiterhin wird ein theoretisches Modell für die eigentumsspezifische Differenzierung der Zinsmarge entwickelt und dessen Lösung anhand einer Querschnittsdatenanalyse empirisch überprüft. Die Ergebnisse weisen auf die Wichtigkeit einer ausreichenden Regulierung als Voraussetzung für eine unverzerrte Erfüllung der Stakeholder-Ansprüche hin. Es ist dabei besonders wichtig, dass das Management von Stakeholder-Banken die Leistung für die Stakeholder und den Beitrag zur sozialen Wohlfahrt offenlegt.
Virtuelles Hausrecht?
(2015)
Webpräsenzen bilden bislang keinen eigens anerkannten Schutzgegenstand unserer Rechtsordnung. Um diese vermeintliche Schutzlücke zu schließen, wurde das virtuelle Hausrecht herangezogen. In einer Parallele zum Hausrechtsinhaber in der physischen Welt soll dem Webpräsenzbetreiber ein originäres Schutzrecht gegenüber den Nutzern seiner Webpräsenz in Form eines virtuellen Hausrechts zur Verfügung stehen.Gabriella Piras erörtert mögliche dogmatische Begründungen für die Übertragung des im Sachenrecht verwurzelten Hausrechts auf den virtuellen Raum, die sie im Ergebnis ablehnt. Außerdem kritisiert sie, dass es einer Neuequilibrierung des Spannungsverhältnisses zwischen Webpräsenzbetreiber und Nutzern durch die Anerkennung eines virtuellen Hausrechts nicht bedarf, und dies vielmehr einen Versuch der Beschränkung der Internetfreiheit der Nutzer darstellt.
Diese Arbeit befasst sich mit der Rheinischen Verlaufsform (RV) im rheinfränkischen Dialekt. Nach dem DUDEN handelt es sich bei der RV um eine Konstruktion, die aus dem Kopulaverb sein und einer PP mit am und nominalisiertem Infinitiv besteht und dem Ausdruck von progressivem Aspekt dient.
Die vorliegenden Arbeiten zur RV beschäftigen sich im Wesentlichen entweder mit der Ausprägung der Konstruktion im Standarddeutschen (z.B. Reimann (1999), Krause (2002), Rödel (2003), Rödel (2004a), Rödel (2004b), van Pottelberge (2004)) oder im Ripuarischen (z.B. Andersson (1989), Bhatt & Schmidt (1993)) und kommen zu unterschiedlichen Ergebnissen bezüglich der Verwendungsmöglichkeiten und des Aufbaus der Konstruktion, insbesondere des Status des Infinitivs in der Verlaufsform.
Hauptziel dieser Arbeit ist es, zu zeigen, dass sich die Grammatikalisierung der Verlaufsform von der im DUDEN beschriebenen Konstruktion zu einer analytischen Verbform entlang eines festen Grammatikalisierungspfades vollzieht und die entsprechenden Teilschritte bei der Entwicklung zu einer analytischen Verbform herauszuarbeiten. Auf dieser Grundlage wird in der Arbeit dargestellt, wie sich mittels eines geeigneten Sets an Indikatoren der Grammatikalisierungsgrad der Verlaufsform in einem Dialektraum oder einem diatopischen Register konkret feststellen lässt.
Hintergrund: In Deutschland stellt der akute Myokardinfarkt (MI) eine der häufigsten Todesursachen dar. Als Ursache für regionale Unterschiede bei den Mortalitätsraten werden divergente Versorgungsstrukturen vermutet. Ziel der Untersuchung war, diese Fragestellung anhand anonymisierter krankenkassenbasierter Abrechnungsdaten zu evaluieren.
Methodik: Standardisierte Hospitalisierungs- sowie Krankenhaus- und Ein-Jahres-Mortalitätsraten nach MI wurden anhand anonymisierter Versichertendaten einer gesetzlichen Krankenkasse für das Jahr 2012 und die Bundesländer Berlin, Brandenburg und Mecklenburg-Vorpommern ermittelt (n=1.387.084, 46.3% male, 60.9 ± 18,2 years). Weiterhin wurden prädiktive Einflussfaktoren auf die Ein-Jahres-Mortalität, auf die Durchführung invasiver Prozeduren und auf eine leitliniengerechte pharmakotherapeutische Sekundärprävention analysiert.
Ergebnisse: 6.733 Patienten (73,7 ±13,0 Jahre, 56,7% männlich) wurden identifiziert. Obwohl für das Bundesland Berlin eine höhere Hospitalisierungsrate als in Mecklenburg-Vorpommern ermittelt werden konnte, ließen sich bei der Krankenhaus- und 1-Jahres-Mortalität keine signifikant abweichenden Raten zwischen den Bundesländern beobachten. Die Durchführung einer Koronarangiographie (OR: 0,42 [0,35-0,51]) und eine leitliniengerechte Pharmakotherapie (OR: 0,14 [0,12-0,17] waren mit einer geringeren 1-Jahres-Mortalität assoziiert. Die Durchführung einer Koronarangiographie und eine leitliniengerechte Pharmakotherapie von Patienten nach Myokardinfarkt wurde hingegen primär durch Alter und Geschlecht, nicht aber durch das Bundesland determiniert.
Folgerung: Eine regional divergierende stationäre und postinfarzielle Versorgung auf Bundesland-Ebene kann anhand der vorliegenden Daten nicht nachgewiesen werden.
Die Honigbiene Apis mellifera zeigt innerhalb einer Kolonie eine an das Alter gekoppelte Arbeitsteilung. Junge Honigbienen versorgen die Brut (Ammenbienen), während ältere Honigbienen (Sammlerinnen) außerhalb des Stocks Pollen und Nektar eintragen. Die biogenen Amine Octopamin und Tyramin sind an der Steuerung der Arbeitsteilung maßgeblich beteiligt. Sie interagieren mit Zielzellen über die Bindung an G Protein gekoppelte Rezeptoren. A. mellifera besitzt fünf charakterisierte Octopaminrezeptoren (AmOctαR1, AmOctβR1-4), einen charakterisierten Tyraminrezeptor (AmTyr1) sowie einen weiteren putativen Tyraminrezeptor.
In der vorliegenden Arbeit wurde dieser putative Aminrezeptor als zweiter Tyraminrezeptor (AmTyr2) identifiziert, lokalisiert und pharmakologisch charakterisiert.
Die von der cDNA abgeleitete Aminosäuresequenz weist strukturelle Eigenschaften und konservierte Motive von G Protein gekoppelten Rezeptoren auf. Phylogenetisch ordnet sich der AmTyr2 Rezeptor bei den Tyramin 2 Rezeptoren anderer Insekten ein. Die funktionelle und pharmakologische Charakterisierung des putativen Tyraminrezeptors erfolgte in modifizierten HEK293 Zellen, die mit der Rezeptor cDNA transfiziert wurden. Die Applikation von Tyramin aktiviert Adenylylcyclasen in diesen Zellen und resultiert in einem Anstieg des intrazellulären cAMP Gehalts. Der AmTyr2 Rezeptor kann durch Tyramin in nanomolaren Konzentrationen halbmaximal aktiviert werden. Während es sich bei Octopamin um einen wirkungsvollen Agonisten des Rezeptors handelt, sind Mianserin und Yohimbin effektive Antagonisten. Für die Lokalisierung des Rezeptorproteins wurde ein polyklonaler Antikörper generiert. Eine AmTyr2-ähnliche Immunreaktivität zeigt sich im Gehirn in den optischen Loben, den Antennalloben, dem Zentralkomplex und in den Kenyon Zellen der Pilzkörper.
Des Weiteren wurde die Rolle der Octopamin- und Tyraminrezeptoren bei der Steuerung der altersabhängigen Arbeitsteilung analysiert.
Die Genexpression des AmOctαR1 in verschiedenen Gehirnteilen korreliert unabhängig vom Alter mit der sozialen Rolle, während sich die Genexpression von AmOctβR3/4 und den Tyraminrezeptoren AmTyr1 und AmTyr2 maximal mit dem Alter aber nicht der sozialen Rolle ändert. Sammlerinnen weisen einen höheren Octopamingehalt im Gesamtgehirn auf als Ammenbienen; bei Tyramin zeigen sich keine Unterschiede. Während Tyramin offensichtlich keine direkte Rolle spielt, werden durch Octopamin gesteuerte Prozesse der altersabhängigen Arbeitsteilung bei der Honigbiene vermutlich über den AmOctαR1 vermittelt.
Die Ergebnisse der vorliegenden Arbeit zeigen die wichtige Rolle von biogenen Aminen, insbesondere Octopamin bei der sozialen Organisation von Insektenstaaten.
Philipp Richter untersucht Unterschiede in der Makroorganisation der Landesverwaltungen. In seiner verwaltungswissenschaftlich-empirischen Analyse zeigt er am Beispiel der Versorgungsverwaltung, wie sich der vormals einheitliche Verwaltungsaufbau durch Verwaltungsstruktur- und Funktionalreformen zwischen den Bundesländern ausdifferenziert hat und wie die dadurch entstandenen Unterschiede den Vollzug von Bundesgesetzen beeinflussen. Mit Blick auf die Implementation des Schwerbehinderten- und Sozialen Entschädigungsrechts identifiziert der Autor problemadäquate Lösungen und zieht praxisrelevante Schlussfolgerungen für eine Modernisierung des äußeren Verwaltungsaufbaus, die auch wichtige Erkenntnisse für die Ausgestaltung der Makroorganisation in anderen Verwaltungsbereichen bereithalten.
Welcher Diskurs wird um Jungenarbeit als geschlechtssensible pädagogische Arbeit mit männlichen Kindern und Jugendlichen und deren Umsetzung in kurzzeitpädagogischen außerunterrichtlichen Angeboten geführt? Thomas Viola Rieske geht dieser Frage nach und legt nahe, dass Normativität als unausweichlicher Bestandteil pädagogischer Praxis anerkannt und zugleich kritisch reflektiert werden muss, um Jungen in ihrer Entwicklung stärken zu können. Er diskutiert die verschiedenen geschlechtertheoretischen und pädagogischen Grundpositionen, die im Fachdiskurs über Jungenarbeit bestehen und untersucht die Umsetzung von Jungenarbeit. Er zeigt auf, dass die Teilnehmer der beobachteten Jungenseminare einerseits zu einem partnerschaftlichen, normenkritischen und direkten Kontakt mit sich und anderen befähigt werden, andererseits aber auch Zuschreibungen, Grenzüberschreitungen und ein Übergehen ihrer Bedürfnisse erfahren.
Für Rechtsetzung sind nicht nur die Parlamente als Legislativorgan zuständig. Auch - und in weitaus größerem Umfang - werden hier exekutive öffentlich-rechtliche Organisationen tätig und erstellen Rechtsverordnungen, Satzungen und Verwaltungsvorschriften. Bisher liegen noch keine umfassenden und wissenschaftlich verwertbaren Erfahrungen darüber vor, ob sich der in Wirtschaft und Privatleben sehr intensiv entwickelnde Einsatz von Social Software auch vorteilhaft auf die Gestaltung von Rechtsetzungsprozessen auswirken kann. Im Rahmen der Arbeit wird daher ein Ordnungssystem entwickelt, das eine strukturierte und nachvollziehbare Auswahl einer Social Software-Anwendung für die Recht setzende Exekutive ermöglicht.
Entlastung und Rechtsverlust
(2015)
Die Durchsetzung von Ersatzansprüchen gegenüber Vorständen, Aufsichtsräten und Geschäftsführern begegnet vielfältigen Problemen. Sie entstehen, wenn die Gesellschafter den Organmitgliedern zunächst vorbehaltlos "Entlastung" erteilen und erst im Nachhinein von Verfehlungen erfahren. Die Arbeit geht der Frage nach, in welchen Fällen die Entlastung zum Verlust von Ersatzansprüchen führt und die Haftung der Organmitglieder ausschließt.