Refine
Year of publication
- 2015 (126) (remove)
Document Type
- Doctoral Thesis (126) (remove)
Language
- German (126) (remove)
Is part of the Bibliography
- yes (126)
Keywords
- Schriftspracherwerb (2)
- Wirtschaft (2)
- thermoresponsive (2)
- Adhäsionsproteine (1)
- Alfred Döblin (1)
- Alkohol (1)
- Analphabetismus (1)
- Apis mellifera (1)
- Arbeitsteilung (1)
- Arthur Ewert (1)
Institute
- Wirtschaftswissenschaften (16)
- Sozialwissenschaften (13)
- Bürgerliches Recht (11)
- Institut für Chemie (9)
- Institut für Ernährungswissenschaft (9)
- Öffentliches Recht (9)
- Institut für Biochemie und Biologie (7)
- Department Erziehungswissenschaft (6)
- Institut für Germanistik (6)
- Historisches Institut (5)
Überlegene Geschäftsmodelle
(2015)
Die Arbeit geht der Frage nach, wie Innovationen in einer Organisation des öffentlichen Sektors aufgenommen wurden und zu welchen Veränderungen dies führte. Im Vordergrund steht hier nicht die Innovation selbst, sondern vielmehr die Anpassungsmechanismen in der Organisation. Folgende Forschungsfragen wurden dazu gewählt:
1. Wie wurde das Instrument Zielsteuerung bzw. Zielvereinbarung im öffentlichen Sektor eingeführt und in die Managementroutinen integriert?
2. Welche Faktoren führen zu einer Integration der Zielsteuerung in die Managementroutinen?
3. Welche Empfehlungen für die Praxis lassen sich daraus ableiten?
Dazu wurde ein Landesbetrieb in Brandenburg detailliert untersucht und 31 Interviews mit Führungskräften der zweiten und dritten Managementebene geführt. In dieser Organisation wurde im Rahmen der deutschlandweiten Reformbewegung in der öffentlichen Verwaltung das Instrument Zielsteuerung bzw. Zielvereinbarung eingeführt und mit ganz konkreten Erwartungen verbunden. Als Untersuchungseinheit der möglichen Anpassungen und Veränderungen wurde das Konstrukt der Managementroutinen herangezogen, welche als kollektive Handlungsmuster ganz bewusst individuelle Verhaltensweisen ausklammerten.
Die Arbeit konnte eine Reihe von früheren Erkenntnissen bestätigen und zudem nachweisen, dass, entgegen des häufigen Vorurteils, Innovationen aus dem privatwirtschaftlichem Raum doch auch zu positiven Veränderungen in Organisationen der öffentlichen Hand führen können. Es kam hier jedoch nicht zur Entwicklung neuer, sondern zu einer Anpassung der bestehenden Routinen. Auf dieser Basis konnte festgestellt werden, dass ein stufenweiser Einführungsvorgang zunächst auf der Ebene der veränderten Zielvorstellungen der Führungskräfte zum Erfolg führte. Erst nach der Anpassung auf dieser „ostentativen“ Ebene kam es mit etwas Verzögerung zu einer Veränderung auf der Ebene der konkreten Handlungen. Im Hinblick auf die Einflussfaktoren der Innovation konnte festgestellt werden, dass viele Aspekte der Zielsetzungstheorie nach wie vor relevant sind und instabile politische Rahmenbedingungen zu wesentlichen Einschränkungen der Entfaltungsmöglichkeiten der Innovation führen können. Für viele Einflussfaktoren konnten allerdings sowohl positive als auch negative Wirkungen identifiziert werden.
Zeugenschaft im Bild
(2015)
Zentrales Anliegen der Dissertation ist, Zeugenschaft als visuelle Strategie zu beleuchten. In Abgrenzung zur These der Undarstellbarkeit der Shoah wird der Begriff der Sichtbarmachung nutzbar gemacht, um Prozesse und die Wirkung von Bildern im Zusammenhang mit Zeugenschaft herauszustellen. Ausgangspunkt dabei ist, dass bildliche Zeugnisse einen Gegenpol zu den standardisierten Visualisierungspraktiken der Shoah bieten, sprich dem historischen Bildmaterial aufgenommen durch die Alliierten und der Nationalsozialisten. In der Arbeit wird das historische Bildmaterial als Visualisierungspraxis problematisiert und visuellen Zeugnissen gegenübergestellt, die Augen- und Überlebenszeugen der Shoah, aber auch authentische Orte des Geschehens aus einer nachträglichen Perspektive zeigen. Dabei werden insbesondere zwei kritische Strategien des Umgangs mit historischen Bildern der Shoah hervorgehoben: das Hinterfragen von Archivbildern innerhalb des Films (Harun Farockis AUFSCHUB, 2007) und die Verweigerung von Archivbildern aus der Zeit des Zweiten Weltkrieges (Claude Lanzmanns SHOAH, 1985).
Seit den 1990er Jahren wird Zeugenschaft in der Forschung als philosophische, moralische und erkenntnistheoretische Kategorie in den USA, aber auch in Deutschland viel diskutiert. Dabei wurde die bild- und medienwissenschaftliche Perspektive im Zusammenhang mit Zeugenschaft kaum beleuchtet, darin liegt der Forschungsbeitrag der Arbeit. Insbesondere drei Gesichtspunkte von visueller Zeugenschaft werden herausgearbeitet: 1) die Sichtbarmachung der Überlebenden und der Orte des Geschehens im Jetzt, 2) die nichtsprachlichen Aspekte von Zeugenaussagen und 3) die Rolle des Zuschauers, der durch den Akt des Sehens in einem Imaginationsprozess eine Verknüpfung zwischen den Bildern aus der Jetztzeit und der nicht-sichtbaren Vergangenheit herstellt.
Polen nimmt eine besondere historische Rolle als Zentrum des europäischen Judentums bis zum Zweiten Weltkrieg und gleichzeitig als »Schauplatz des Holocaust« und Ort der Augenzeugenschaft ein. Maßgeblich hat Claude Lanzmanns Film SHOAH dazu beigetragen, die Konzentrations- und Vernichtungslager im Polen der Nachkriegszeit sichtbar zu machen, und damit nicht nur Generationen von polnischen Filmemachern und Künstlern nach ihm beeinflusst, sondern auch kontroverse Debatten in Polen ausgelöst. Anhand der ausgewählten Filme lässt sich in der polnischen Erinnerungskultur seit der Wende von 1989 eine Hinwendung zur polnisch-jüdischen Geschichte erkennen, die sich verstärkt mit den Fragen der polnischen Mittäterschaft und Schuld an der Shoah auseinandersetzt.
Der Untersuchungsgegenstand unterteilt sich in zwei Formate: Dokumentar- und Kunstfilm. Einerseits ist das auf ihre unterschiedlichen Produktions- und Rezeptionsbedingungen sowie die Länge der Arbeiten zurückzuführen. Andererseits bewegen sich die Kategorien auf verschiedenen Reflexionsebenen und zielen auf unterschiedliche Wirkungen beim Zuschauer ab. Während sich in den Dokumentarfilmen zum Teil explizite Bezüge (aber auch Abgrenzungen) zum Lanzmann’schen Projekt erkennen lassen, handelt es sich bei den Produktionen des zeitgenössischen Künstlers Artur Żmijewski um einen Meta-Diskurs, der auf radikale und provokative Art und Weise bestehende erinnerungskulturelle Praktiken ausstellt und kritisch hinterfragt.
Wissenschaft, Technik und Medien im Werk Alfred Döblins im Kontext der europäischen Avantgarde
(2015)
Ziel dieser Studie ist es die bislang nur sporadisch untersuchten Wechselverhältnisse zwischen den Kulturbereichen Wissenschaft/Technik und Literatur am herausragenden Beispiel des Oeuvres des Schriftstellers und Arztes Alfred Döblin aufzuspüren. Hierbei scheint seine ärztlich-psychiatrische Laufbahn, die eine breite Grundlage wissenschaftlicher Diskurse anbietet, wie auch seine avantgardistische Literaturpraxis diese gegenseitige Befruchtung gefördert zu haben.
Im Hinblick auf den Forschungsgegenstand und -zweck ist ein kulturwissenschaftlicher Ansatz versucht worden. Dieser vielperspektivische Ansatz, der von der Prämisse eines Wechselspiels aller Kulturbereiche untereinander ausgeht, gestattet eine dem Gegenstand angepasste Verknüpfung von verschiedenen Arbeitsmethoden wie der philologisch-literarhistorischen mit der konstruktivistischen und der komparatistischen. Hierbei ist eine Einbeziehung wissenschafts- und technikphilosophischer Reflexion wie auch eine dementsprechend erweiterte kulturhistorische Kontextualisierung vorgenommen worden.
Die hier vorgelegte Analyse fokussiert auf wissenschaftlich-technische Bezüge sowohl in thematischer Hinsicht als auch in der Textgestaltung der schriftstellerischen Werke Döblins bis 1924. Gleichzeitig wird die diskursgeprägte, sprachliche und literarische Dimension seiner wissenschaftlichen Studien und technischer Texte - wie Krankenakte - hervorgehoben. Dieses erweiterte ‚Oeuvre‘-Konzept gestattet die Analyse der psychiatrischen, klinisch-ärztlichen und biochemischen Schriften Döblins sowie seiner Erzählwerke, seiner vielgestaltigen Publizistik und seiner intermedialen Anregungen aus den neuen audiovisuellen Medien. Dadurch wird eine diskurskritische kulturübergreifende Interdiskursivität wie auch eine ‚Hybridität‘ aller Texte aufgezeigt, die die Grundunterschiede zwischen Textsorten und Gattungsgrenzen relativiert.
Was machen Schulleiter tatsächlich und welche Faktoren beeinflussen diese ausgeführten Tätigkeiten?
(2015)
Während die theoretische Arbeitsbeschreibung und das Rollenbild von Schulleitern vielfach in der Forschung aufgegriffen wurde, gibt es – wie übrigens im gesamten Bereich Public Management – nur wenige empirische Untersuchungen, die aus einer betriebswirtschaftlichen Managementbetrachtung heraus untersuchen, was Schulleiter wirklich machen, d.h. welchen Tätigkeiten und Aufgaben die genannten Personen nachgehen und welche Unterschiede sich feststellen lassen. Besondere Relevanz erhält die Thematik durch das sich wandelnde Aufgabenbild des Schulleiters, getrieben insbesondere durch die zusätzliche Autonomie der Einzelschule, aber auch durch die Fokussierung auf die Performance und Wirksamkeit der Einzelschule und verbunden damit, die Abhängigkeit dieser von der Arbeit des Schulleiters. Hier bildet das Verständnis der Aufgaben und Tätigkeiten eine wichtige Grundlage, die jedoch unzureichend erforscht ist. Mit Hilfe einer explorativen Beobachtung von 15 Schulleiterinnen und Schulleitern und damit einer empirischen Untersuchung von insgesamt 7591 Arbeitsminuten und 774 Aktivitäten in Kombination mit ausführlichen qualitativen, halboffenen Interviews wird durch diese Arbeit eine detaillierte Betrachtung des tatsächlichen Schulleitungsmanagementhandelns möglich. So wird sichtbar, dass sich die Aufgaben und Tätigkeiten der Schulleiter in zentralen Bereichen unterscheiden und eine Typologisierung entlang von Rollenbeschreibungen und Leadership Behavior zu kurz greift. Es konnte zum ersten Mal in dieser Ausführlichkeit innerhalb des deutschen Schulsystems gezeigt werden, dass Schulleiter Kommunikationsmanager sind. Darüber hinaus entwickelt das hier dokumentierte Forschungsvorhaben Hypothesen zu den Faktoren, die einen Einfluss auf die Aufgaben und Tätigkeiten haben und beschreibt dezidiert Implikationen, die diese Erkenntnisse auf die Tätigkeit des Schulleiters, die weitere Forschung aber auch die politische Rahmengestaltung und, damit verbunden, die Weiterentwicklung des Schulsystems haben.
Volksschädlinge vor Gericht
(2015)
Deutschland, September 1939. Der Zweite Weltkrieg hat gerade begonnen, die Kriegsmoral der deutschen Bevölkerung musste unter allen Umständen aufrechterhalten werden. Um ein Abklingen wie im Ersten Weltkrieg durch Aushungern zu vermeiden, musste die Versorgung der Bevölkerung mit Lebensmitteln und anderen lebenswichtigen Dingen stets gewährleistet sein.Jana Nüchterlein analysiert die am 5. September 1939 initiierte Volksschädlingsverordnung, nach der jeder, der die Verteilung verknappter und bezugsscheinpflichtiger Waren gefährdete, schwer bestraft werden sollte. Sie zeigt, dass mit der Verordnung vorrangig Ziele wie Abschreckung und Vertrauen der Bevölkerung in die Justiz (und damit in das System) erreicht werden sollten, und wie letztendlich – durch weitgefasste Tatbestände, scharfe Strafandrohungen und weit gespannte Strafrahmen – selbst die Gewährleistung der Durchführung kriegswirtschaftlicher Maßnahmen und die Unterbindung sämtlicher Formen der Sabotage zum Ziel wurden.
Virtuelles Hausrecht?
(2015)
Webpräsenzen bilden bislang keinen eigens anerkannten Schutzgegenstand unserer Rechtsordnung. Um diese vermeintliche Schutzlücke zu schließen, wurde das virtuelle Hausrecht herangezogen. In einer Parallele zum Hausrechtsinhaber in der physischen Welt soll dem Webpräsenzbetreiber ein originäres Schutzrecht gegenüber den Nutzern seiner Webpräsenz in Form eines virtuellen Hausrechts zur Verfügung stehen.Gabriella Piras erörtert mögliche dogmatische Begründungen für die Übertragung des im Sachenrecht verwurzelten Hausrechts auf den virtuellen Raum, die sie im Ergebnis ablehnt. Außerdem kritisiert sie, dass es einer Neuequilibrierung des Spannungsverhältnisses zwischen Webpräsenzbetreiber und Nutzern durch die Anerkennung eines virtuellen Hausrechts nicht bedarf, und dies vielmehr einen Versuch der Beschränkung der Internetfreiheit der Nutzer darstellt.
Untersuchungen zur räumlichen Analyse und Visualisierung von Mietpreisdaten für Immobilienportale
(2015)
Die vorliegende Arbeit verfolgt das Ziel, aus geoinformatischer Sicht eine konzeptionelle Grundlage zur räumlichen Optimierung von Immobilienportalen zu schaffen. Die Arbeit geht dabei von zwei Hypothesen aus:
1. Verfahren der räumlichen Statistik und des Maschinellen Lernens zur Mietpreisschätzung sind den bisher eingesetzten Verfahren der hedonischen Regression überlegen und eignen sich zur räumlichen Optimierung von Immobilienportalen.
2. Die von Immobilienportalen publizierten webbasierten Mietpreiskarten geben nicht die tatsächlichen räumlichen Verhältnisse auf Immobilienmärkten wieder. Alternative webbasierte Darstellungsformen, wie z.B. Gridmaps, sind dem Status Quo der Immobilienpreiskarten von Immobilienportalen überlegen und visualisieren die tatsächlichen räumlichen Verhältnisse von Immobilienpreisen zweckmäßiger.
Beide Thesen können bewiesen werden.
Es erfolgt zunächst eine umfangreiche Erhebung des Forschungsbedarfs mittels Literaturstudien und technologischer Recherche. Zur Beantwortung der Forschungsfragen wird als quantitative Datenbasis ein 74.098 Mietangebote umfassender Datensatz (von Januar 2007 bis September 2013) eines Immobilienportals akquiriert. Dieser reicht jedoch nicht in vollem Umfang zur Beantwortung der Fragestellungen aus. Deshalb führt der Autor Experteninterviews zur Erhebung einer qualitativen Datenbasis. Deren Analyse ergibt in Kombination mit der Literaturstudie und der technologischen Recherche ein umfassendes, bisher so nicht verfügbares Bild. Es stellt den Status Quo der räumlichen Sicht sowie der raumanalytischen und geovisuellen Defizite von Immobilienportalen dar.
Zur Optimierung der raumanalytischen und geovisuellen Defizite werden forschungsbasierte Lösungsansätze herausgearbeitet und teilimplementiert. Methoden des Maschinellen Lernens und räumliche Schätzverfahren werden als Alternativen zu den von Immobilienportalen bisher genutzten „nicht räumlichen“ Analyseverfahren zur Preismodellierung untersucht. Auf Grundlage eines hierfür konzipierten Validierungsrahmens werden diese Methoden für die Nutzung im Kontext von Immobilienportalen adaptiert. Die prototypische Teilimplementierung zeigt die programmiertechnische Umsetzung des Konzeptes auf. Eine umfassende Analyse geeigneter Sekundärvariablensets zur Mietpreisschätzung liefert als methodisches Resultat, dass Interpolatoren, die Sekundärvariablen benötigen (Kriging with external drift, Ordinary Cokriging), kaum zu valideren Mietpreisschätzergebnissen gelangen als die Methode des Ordinary Kriging, die keine Sekundärvariablen benötigt. Die Methoden Random Forest aus dem Maschinellen Lernen und die Geographisch Gewichtete Regression hingegen bergen großes Potential zur Nutzung der räumlichen Mietpreisschätzung im Kontext von Immobilien-portalen. Die Forschungsergebnisse der räumlichen Preismodellierung werden in die räumliche Visualisierung von Mietpreisen transferiert.
Für die webbasierte Mietpreisdarstellung wird ein Set alternativer Darstellungsmethoden entwickelt, um Mietpreiskarten-Prototypen abzuleiten. Ein methodisches Ergebnis der Entwicklung der Mietpreiskarten-Prototypen ist die Entwicklung eines geeigneten Ansatzes der Loslösung des Preisbezugs von fachfremd verwendeten Bezugsgeometrien. Hierfür wird vom Autor der Begriff der zonenlosen Preiskarte geprägt. Diese werden mit Methoden des Gridmapping erstellt. Es werden optimale Rasterauflösungen zur Darstellung interpolierter Rastergrößen ermittelt. Zonenlose Preiskarten mit Methoden des Gridmapping, gepaart mit einer optionalen gebäudescharfen Darstellung in größeren Maßstäben, sind als Resultate der Forschung die bestmögliche, sich an realen Verhältnissen orientierende, räumliche Mietpreisdarstellung. Die entstandenen Prototypen sind eine Annäherung der wahren Verteilung des Mietpreises im Raum und um einiges schärfer, als die auf der hedonischen Regression basierenden Darstellungen. Somit kann die wahre „Topographie“ der Mietpreislandschaft abgebildet werden. Ein Einsatz der Karten für Nutzergruppen wie Makler, Investoren oder Kommunen zur Analyse städtischer Mietmärkte ist denkbar. Alle entstandenen Prototypen sind unter der Nutzung von Map APIs umgesetzt. Ein Ergebnis dessen ist, dass Map APIs noch an diversen „Kinderkrankheiten“ leiden und derart umgesetzte Mietpreiskarten noch einen weiten Weg vor sich haben, bis sie das Niveau thematischer Karten von Immhof oder Arnberger erreichen.
Die konzeptionellen Überlegungen und Teilimplementierungen münden in drei Prozessketten, die Umsetzungsoptionen für eine räumliche Optimierung von Immobilienportalen darstellen. Dabei werden zwei Szenarien für eine räumlich optimierte Mietpreisschätzung und ein Szenario für eine räumlich optimierte Mietpreisdarstellung herausgearbeitet.
Das Treasury-Management von Internationalen Unternehmen gewinnt in der Praxis zunehmend an strategischer Bedeutung; eine wissenschaftlich umfassende Erörterung des Themas unter Berücksichtigung verschiedener Perspektiven und aktueller Entwicklungen fehlt jedoch. Daher wird in der vorliegenden Dissertation einerseits ein holistisches Verständnis des Treasury-Managements von Internationalen Unternehmen erarbeitet. Diese neuartige Sichtweise wird durch die Entwicklung von theoretischen Modellen untermauert und eine zunehmende Strategieorientierung nachgewiesen. Ergänzend wird das Treasury-Management vor dem Hintergrund einer Fokussierung auf Internationale Unternehmen und Finanzmärkte in einen Gesamtunternehmenskontext eingeordnet, aber auch Spezial-bereiche – wie die Corporate Governance der Treasury-Abteilung werden hinreichend behandelt. Daneben wird aber auch eine umfangreiche empirische Analyse der Bankensteuerung und des Cash-Managements von Internationalen Unternehmen am Beispiel von DAX- und MDAX-Unternehmen im Kontext der Globalen Finanzkrise durchgeführt. Es werden wesentliche Entwicklungstendenzen – wie eine zunehmende Risikoorientierung – aufgezeigt und ein Zusammenhang zwischen beiden Untersuchungsbereichen nachgewiesen.
Der Beitrag der Dissertation „Theoriebasierte Betreuung vom Schulpraktikum im Lehramtsstudium Englisch“ zum wissenschaftlichen Diskurs liegt in der Verbindung von Theoriebereichen der Professionalisierungsforschung und angewandten Linguistik mit Untersuchungen zur hochschuldidaktischen Begleitung und Betreuung im ersten Unterrichtspraktikum des Lehramtsstudiums, dem fachdidaktischen Tagespraktikum, an der Universität Potsdam. Ein interaktionsanalytisches Vorgehen wurde eingesetzt zur Weiterentwicklung des hochschuldidaktischen Settings einer disziplinenverbindenden, fachwissenschaftlichen Begleitung von Praktika im komplexen Kontext Schule. Die Implementierung entsprechender Formate ins reguläre Studium wurde in einer über drei Jahre angelegten iterativen Studie turnusmäßig evaluiert.
Die Veröffentlichung ist, neben der Evaluation des Systemischen Aggressionsmanagements (SAM), ein Beitrag für die Diskussionen um Habitusformen und Kompetenzbegriffe. Sie bildet einen Brückenkopf, denn beide Diskursstränge zusammengedacht können gegenseitige Anschlussstellen und Erweiterungen offenlegen bzw. eingehen. Zudem bildet sie ein Puzzleteil in der Evaluation von pädagogischen Programmen, die in ihrer Vielzahl einer Evaluation bedürfen. Im Rahmen der Bildungswissenschaft können auf dieser Basis erwachsenbildnerische Präventions- und Interventionsprogramme empirisch gesteuert angepasst werden.
Auf theoretischer Ebene wird zunächst der Gegenstand der Untersuchung herausgearbeitet. Der Habitus aggredi bildet die zentrale Analysestruktur. Sie bildet den Zugang zur pädagogischen Professionalität. Im Diskurs um pädagogische Professionalität besitzt der Begriff der ‚Kompetenz‘ einen prominenten Stellenwert. Mittels einer theoretischen Triangulation werden ‚Habitus‘ und ‚Kompetenz‘ gekoppelt. Einstellungen, Stile und geschmackliche Vorlieben sowie spezifische Wahrnehmungs-, Denk- und Handlungsmuster drücken sich in ihrer Performanz über Fertigkeiten und Fähigkeiten aus. Insgesamt wird der Bogen von der pädagogischen Professionalität über lebenslanges Lernen, Weiterbildung, Habitus und Kompetenz bis hin zu Wissen, Fertigkeiten und Fähigkeiten gespannt.
Um der Frage nach Effekten des SAM nachzugehen, wurde eine dreistufige summativ-evaluationsorientierte Paneluntersuchung im methodentriangulierten Design durchgeführt. Sie zeigte auf qualitativer Ebene, dass der Habitus aggredi als Subkategorie des professionellen Habitus durchaus mittel Weiterbildung bewegt werden kann. Die Zielgruppe der Kitaerzieher_innen konnte auch nach drei Monaten Weiterbildungsinhalte erinnern. Bei Teilen der Zielgruppe konnte eine Erweiterung von Handlungsoptionen nachgewiesen werden. Zudem zeigte sich, dass SAM auch in den privaten Bereich hinein wirksam ist.
Straßen im Fluss
(2015)
Auch in historischer Zeit waren Straßen, Wege und Verkehrsbahnen Orte innovativer Entwicklungen der Technik, der Mobilität sowie der Infrastruktur. Anders als die ältere Forschung und populären Vorstellungen meinen, währten die Umgestaltungen der Kulturlandschaft seit dem 13. Jahrhundert bemerkenswert lange.
Diese »etwas andere« Mittelalter-Geschichte mit ihrer epochenübergreifenden Wirkung zeigt in vielen Details die vorliegende Studie. Sie schöpft aus den bewährten Methoden der Altweg-, Binnenschifffahrts- und Infrastrukturgeschichtsforschung und entdeckt dabei auf innovative Weise »Straßen im Fluss« als Modell. Mit Blick auf den Verkehrsraum zwischen Elbe und Oder – vom Spreewald über Berlin-Cölln und Brandenburg an der Havel bis nach Havelberg – gelingt erstmals eine zwischen dem mittelalterlichen Landesausbau und dem 16. Jahrhundert angesiedelte Geschichte der beiden Hauptflüsse Spree und Havel sowie ihrer Nebenläufe.
Der Autor rückt das Leben der Menschen am und auf dem Fluss ins Licht und beschreibt quellennah, wie vor allem die Städte, aber auch geistliche Institutionen wie Domstift oder Klöster an dem Wandel der Kulturlandschaft zu einem mannigfach »vernetzten« Verkehrsraum stark beteiligt waren. Die hier entwickelten Strukturen bewährten sich und besaßen Vorbildcharakter, so dass in späteren Jahrhunderten insbesondere Städte an diese mittelalterlichen Verkehrswirtschaftsprojekte anknüpften.
Serious games in andragogy
(2015)
Hintergrund: In Deutschland stellt der akute Myokardinfarkt (MI) eine der häufigsten Todesursachen dar. Als Ursache für regionale Unterschiede bei den Mortalitätsraten werden divergente Versorgungsstrukturen vermutet. Ziel der Untersuchung war, diese Fragestellung anhand anonymisierter krankenkassenbasierter Abrechnungsdaten zu evaluieren.
Methodik: Standardisierte Hospitalisierungs- sowie Krankenhaus- und Ein-Jahres-Mortalitätsraten nach MI wurden anhand anonymisierter Versichertendaten einer gesetzlichen Krankenkasse für das Jahr 2012 und die Bundesländer Berlin, Brandenburg und Mecklenburg-Vorpommern ermittelt (n=1.387.084, 46.3% male, 60.9 ± 18,2 years). Weiterhin wurden prädiktive Einflussfaktoren auf die Ein-Jahres-Mortalität, auf die Durchführung invasiver Prozeduren und auf eine leitliniengerechte pharmakotherapeutische Sekundärprävention analysiert.
Ergebnisse: 6.733 Patienten (73,7 ±13,0 Jahre, 56,7% männlich) wurden identifiziert. Obwohl für das Bundesland Berlin eine höhere Hospitalisierungsrate als in Mecklenburg-Vorpommern ermittelt werden konnte, ließen sich bei der Krankenhaus- und 1-Jahres-Mortalität keine signifikant abweichenden Raten zwischen den Bundesländern beobachten. Die Durchführung einer Koronarangiographie (OR: 0,42 [0,35-0,51]) und eine leitliniengerechte Pharmakotherapie (OR: 0,14 [0,12-0,17] waren mit einer geringeren 1-Jahres-Mortalität assoziiert. Die Durchführung einer Koronarangiographie und eine leitliniengerechte Pharmakotherapie von Patienten nach Myokardinfarkt wurde hingegen primär durch Alter und Geschlecht, nicht aber durch das Bundesland determiniert.
Folgerung: Eine regional divergierende stationäre und postinfarzielle Versorgung auf Bundesland-Ebene kann anhand der vorliegenden Daten nicht nachgewiesen werden.
Redewiedergabeverfahren potenzieren das Moment der sozialen Positionierung in der Interaktion. Charaktere, die zum Beispiel in Erzählungen oder Argumentationen ‚zu Wort kommen‘, werden als Protagonisten und Antagonisten, Täter und Opfer, angeberisch und zurückhaltend konstruiert. Das Bild, das sich Gesprächspartner voneinander machen, wird aber nicht nur durch solche Positionierungen innerhalb der erzählten Welt, sondern auch durch ihre aktuelle Performance als Interaktionsspartner geprägt. All diese Positionierungsaktivitäten stehen in Wechselbeziehung zueinander und können auch aufschlussreiche Spannungsverhältnisse aufweisen.
Ausgehend von einer formalen Beschreibung der verwendeten Mittel zeigt die Analyse narrativ-biographisch geprägter Gespräche unter jungen Erwachsenen, wie in der Interaktion soziale Wirklichkeit ko-konstruiert wird, indem konkret oder stereotyp ‚fremde‘ Kontexte aufgerufen und als Kontrastfolie für die eigene Identitätskonstruktion genutzt werden.
Welcher Diskurs wird um Jungenarbeit als geschlechtssensible pädagogische Arbeit mit männlichen Kindern und Jugendlichen und deren Umsetzung in kurzzeitpädagogischen außerunterrichtlichen Angeboten geführt? Thomas Viola Rieske geht dieser Frage nach und legt nahe, dass Normativität als unausweichlicher Bestandteil pädagogischer Praxis anerkannt und zugleich kritisch reflektiert werden muss, um Jungen in ihrer Entwicklung stärken zu können. Er diskutiert die verschiedenen geschlechtertheoretischen und pädagogischen Grundpositionen, die im Fachdiskurs über Jungenarbeit bestehen und untersucht die Umsetzung von Jungenarbeit. Er zeigt auf, dass die Teilnehmer der beobachteten Jungenseminare einerseits zu einem partnerschaftlichen, normenkritischen und direkten Kontakt mit sich und anderen befähigt werden, andererseits aber auch Zuschreibungen, Grenzüberschreitungen und ein Übergehen ihrer Bedürfnisse erfahren.
Die vorliegende Arbeit thematisiert die Finanzierungsmodelle von Public-Private-Partnership-Projekten (PPP) und deren Refinanzierung durch die Kapitalgeber.
Dabei wurden zwei zentrale Fragestellungen thematisiert. Erstens: Führen PPPProjekte zu einer Verschuldung der öffentlichen Hand und sind sie entsprechend bei den Berechnungen der Konvergenzkriterien bzw. der Schulden- und Neuverschuldungsquoten zu berücksichtigen? Die zu prüfende Arbeitshypothese geht von einer Verschuldung der öffentlichen Hand in Folge von PPP-Projekten aus. Zweitens: Unterstellt wird eine bedeutsame Funktion von PPP für die Infrastrukturfinanzierung, wobei im Sinne einer Effizienzsteigerung die Passgenauigkeit beziehungsweise Konsistenz der haushaltsrechtlichen Regelungen mit den regulatorischen Vorgaben für die Kapitalgeber von PPP-Projekten analysiert wird. Diese Schnittstelle und die zur Generierung günstiger („kommunalähnlicher") Finanzierungskonditionen notwendigen staatlichen Garantien bei PPP drängt geradezu zu einem ordnungspolitischen Vergleich von Ansätzen bzw. Projekten im Bereich PPP und in Cash-Flow-Kalkülen.
Die Arbeit führt mit einem gewissen gesamtwirtschaftlichen Fokus der PPP tief in die Analyse des Kapitalmarktes und der Bankenregulierung. Es erfolgt ein Vergleich der gedeckten Refinanzierungsinstrumente für PPP, die durch Forderungen besichert sind (Asset Backed Securities) und solche, die beispielsweise durch Forderungen gegen die öffentliche Hand besichert sind (Covered Bonds). Letztere können auch grundpfandrechtlich gesichert sein. Hier setzt der Verfasser später seine Skizze eines „Infrastructure Covered Bonds" für die Finanzierung notwendiger Infrastrukturmaßnahmen nicht nur in Deutschland an, wobei das Wertpapier hier ausschließlich zur Finanzierung der Infrastruktur bei einem entsprechend neu zuschaffenden (Deckungs-) Registers begeben werden wird.
Die vorliegende Arbeit beschäftigt sich mit der Fragestellung, inwieweit die Integrität der phonologischen Sprachverarbeitung für den erfolgreichen Schriftspracherwerb bei deutschsprachigen Kindern relevant ist. Hierbei bilden Fähigkeiten zur phonologischen Bewusstheit (PhB) den Schwerpunkt. Der erfolgreiche Schriftspracherwerb ist nicht nur für den Bildungserfolg mit den damit verbundenen beruflichen und sozio‑ökonomischen Perspektiven wichtig, sondern auch für die aktive Teilhabe am sozialen und kulturellen Leben in unserer Gesellschaft.
Die Bestandteile dieser publikationsbasierten Dissertation sind eine Monographie (Schnitzler, 2008), ein Beitrag in einem Sammelwerk (Schnitzler, 2013) sowie zwei Zeitschriftenartikel (Schnitzler, 2014, 2015). Die ersten beiden Publikationen beschäftigen sich mit der Entwicklung der PhB sowie Zusammenhängen zwischen PhB und Schriftsprachfertigkeiten. Die beiden Zeitschriftenartikel beschäftigen sich mit dem LRS‑Risiko deutschsprachiger Kinder, die im Vorschulalter aufgrund phonologischer Aussprachestörungen (PhAS) logopädisch behandelt werden. Hierzu wurden in Schnitzler (2015) die Ergebnisse einer selbst durchgeführten Studie dargestellt. In dieser Studie wurden mögliche Einflüsse zusätzlicher nicht‑phonologischer Symptome und der Art der phonologischen Aussprachestörung kontrolliert.
Die Ergebnisse weisen darauf hin, dass zum Schulbeginn und während der Schuleingangsphase genau beobachtet werden sollte, ob Kinder über altersentsprechende Fähigkeiten zur PhB verfügen und ob sie diese segmental‑phonologischen Wissensbestände bewusst aktivieren und beim Lesen und Schreiben effizient nutzen. Dies gilt insbesondere für Kinder, für die ein erhöhtes LRS‑Risiko besteht. Verfügen Kinder zu dieser Zeit über unzureichend spezifizierte phonologische Repräsentationen, ist eine frühzeitige Intervention im Sinne einer Prävention von LRS angezeigt.
Patentpools
(2015)
Elisabeth Eppinger erforscht in diesem Buch aktuelle Patentpools, ihre Eigenschaften und alternative Lösungen zur gemeinsamen Nutzung von Patenten. Patentpools haben das Potenzial, Patentblockaden zu lösen und Innovationen zu fördern. Die Autorin diskutiert die Rolle von Patentkooperationen im Rahmen des strategischen Technologie- und Innovationsmanagements sowie der Innovationsförderung. Es wird gezeigt, welche strukturellen Faktoren, Motive und Charakteristika von Akteuren unterschiedliche Patentpools begünstigen
Aufgrund zunehmender Herausforderungen bei der Entsendung von Mitarbeitern ins Ausland beschäftigt sich die Dissertation ‚Optimierung der Anzahl an Auslandsentsendungen und Empowerment of Locals in internationalen Unternehmen’ unter Zuhilfenahme der deskriptiven Entscheidungstheorie mit der wissenschaftlichen Forschungsfrage, ob sich die Anzahl der Auslandsentsendungen von deutschen Großunternehmen in den nächsten Jahren verändern wird und welche Parameter, wie z.B. die strategische Ausrichtung des Unternehmens, dafür ausschlaggebend sind. Darüber hinaus wird analysiert, inwieweit eine solche Reduzierung erfolgversprechend ist und ob es eine optimale Anzahl an Auslandsentsendungen gibt. Weiterhin wird untersucht, wie Auslandsentsendungen erfolgreich optimiert werden können und ob dies - beispielsweise durch ein gezieltes Empowerment of Locals - unterstützt werden kann. Dieses Buch richtet sich sowohl an Forschende und Studierende im Bereich der BWL – insbesondere mit den Schwerpunkten Personalmanagement und Internationales Management – als auch an HR-Mitarbeiter, Führungskräfte und Berater, die an theoretischen und empirischen Erkenntnissen zu Auslandsentsendung von Mitarbeitern und Expatriate-Management interessiert sind
Viele klinische Schnelltestsysteme benötigen vorpräparierte oder aufgereinigte Analyte mit frisch hergestellten Lösungen. Fernab standardisierter Laborbedingungen wie z.B. in Entwicklungsländern oder Krisengebieten sind solche Voraussetzungen oft nur unter einem hohen Aufwand herstellbar.
Zusätzlich stellt die erforderliche Sensitivität die Entwicklung einfach zu handhabender Testsysteme vor große Herausforderungen.
Autokatalytische Reaktionen, die sich mit Hilfe sehr geringer Initiatorkonzentrationen auslösen lassen, können hier eine Perspektive für Signalverstärkungsprozesse bieten.
Aus diesem Grund wird im ersten Teil der vorliegenden Arbeit das Verhalten der autokatalytischen Arsenit-Jodat-Reaktion in einem mikrofluidischen Kanal untersucht. Dabei werden insbesondere die diffusiven und konvektiven Einflüsse auf die Reaktionskinetik im Vergleich zu makroskopischen Volumenmengen betrachtet.
Im zweiten Teil werden thermoresponsive Hydrogele mit einem kanalstrukturierten Papiernetzwerk zu einem neuartigen, kapillargetriebenen, extern steuerbaren Mikrofluidik-System kombiniert. Das hier vorgestellte Konzept durch Hydrogele ein papierbasiertes LOC-System zu steuern, ermöglicht zukünftig die Herstellung von komplexeren, steuerbaren Point-Of-Care Testsystemen (POCT). Durch z.B. einen thermischen Stimulus, wird das Lösungsverhalten eines Hydrogels so verändert, dass die gespeicherte Flüssigkeit freigesetzt und durch die Kapillarkraft des Papierkanals ins System transportiert wird. Die Eigenschaften dieses Gelnetzwerks können dabei so eingestellt werden, dass eine Freisetzung von Flüssigkeiten sogar bei Körpertemperatur möglich wäre und damit eine Anwendung gänzlich ohne weitere Hilfsmittel denkbar ist. Für die Anwendung notwendige Chemikalien oder Enzyme lassen sich hierbei bequem in getrocknetem Zustand im Papiersubstrat vorlagern und bei Bedarf in Lösung bringen.
Im abschließenden dritten Teil der Arbeit wird ein durch Hydrogele betriebener, Antikörper-basierter Mikroorganismenschnelltest für Escherichia coli präsentiert. Darüber hinaus wird weiterführend eine einfache Methode zur Funktionalisierung eines Hydrogels mit Biomolekülen über EDC/NHS-Kopplung vorgestellt.
Ni-based materials for the catalytic conversion of lignocellulosic biomass into valuable products
(2015)
Ziel dieser Arbeit war die Synthese und Charakterisierung von neuartigen fluoreszierenden Copolymeren zur Analytdetektion in wässrigen Systemen. Das Detektionssystem sollte ein einfaches Schalten der Fluoreszenz bei Analytbindung „Aus“ bzw. Verdrängung „An“ ermöglichen. Dafür wurde die Synthese eines funktionalisierten Monomers so geplant, dass sich Fluorophor und Analyt innerhalb derselben Monomereinheit in direkter Nachbarschaft zueinander befinden. So sollten bei Erkennung des Analyten durch eine mit einem Fluoreszenzlöscher funktionalisierte Erkennungsstruktur Fluorophor und Löscher in einen vorgegebenen Abstand zueinander gezwungen und die Fluoreszenz des Fluorophors effizient gelöscht werden. Bei anschließender Verdrängung der Erkennungseinheit durch einen stärker bindenden Analyten sollte die Fluoreszenz wieder „angeschaltet“ werden. Eine weitere Zielstellung für das Detektionssystem war eine hohe Löslichkeit und Fluoreszenzintensität in Wasser. Da die Anwendung solcher Sensoren besonders in der Medizin und Biologie, z.B. für Schnellerkennungstest von Pathogenen, von Interesse ist, ist die Kompatibilität mit wässrigen Medien essentiell. Die funktionalisierten Monomere wurden frei radikalisch mit N Vinyl-pyrrolidon bzw. N Vinyl¬caprolactam zu wasserlöslichen, fluoreszierenden Copolymeren umgesetzt. In den N-Vinyl¬pyrrolidon-Polymeren (PNVP) wurde RhodaminB, in den thermoresponsiven N Vinyl¬caprolactam-Polymeren (PNVCL) ein Naphthalsäureimid als Fluorophor verwendet. Während Rhodamine eine hohe Fluoreszenzintensität, gute Quantenausbeuten und hohen Extinktionskoeffizienten in Wasser zeigen, sind Naphthalsäure¬imide umgebungssensitive Chromophore, die bei Änderung ihrer Lösungsmittelumgebung, wie z.B. beim Kollaps eines thermoresponsiven Polymers in Wasser, ihre Fluoreszenzintensität und Quantenausbeute drastisch ändern können. Der Vorteil der hier verwendeten Strategie der Monomersynthese liegt darin, dass bei jeder spezifischen Analytdetektion durch eine Erkennungseinheit die Fluoreszenz effizient gelöscht bzw. bei Verdrängung durch einen stärker bindenden Analyten wieder „angeschaltet“ wird. Dieses Prinzip wird bereits vielfach in der Biologie in sogenannten „Molecular Beacons“ ausgenutzt, wobei ein Fluorophor und ein Löscher durch spezifische DNA Basenpaarung in einen vorgegebenen Abstand zueinander gezwungen werden und so ein „Schalten“ der Fluoreszenz ermöglichen. Aufgrund der vorgegebenen Struktur der DNA Basensequenzen ist es jedoch nicht direkt auf andere Erkennungsreaktionen übertragbar. Daher wurde ein Modellsystem entwickelt, welches die Möglichkeit bietet Analyt, Erkennungseinheit und Signalgeber variabel, je nach Anforderungen des Systems, auszutauschen. So soll es möglich sein, den Sensor a priori für jede Erkennungs¬reaktion zu verwenden. Als Modell Bindungs¬paare wurden ß Cyclodextrin/Adamantan und Con¬cana¬valinA/Mannose ausgewählt. Adamantan bzw. Mannose wurde als Analyt zusammen mit dem Fluorophor in das Polymer eingebunden. ß Cyclo¬dextrin (ß CD) bzw. ConcanavalinA (ConA) wurde als Erkennungsstruktur an einem Fluoreszenzlöscher immobilisiert. Polymer-basierte Fluoreszenzsensoren sind in der Fachliteratur gut dokumentiert. In der Regel sind Signalgeber und Analyt jedoch statistisch im Polymer verteilt, da sie sich entweder in unterschiedlichen Monomereinheiten befinden oder die Funktionalisierung durch eine polymeranaloge Umsetzung erfolgt. Der gewählte Ansatz Fluorophor und Analyt innerhalb derselben Monomereinheit einzubinden, soll bei jeder Erkennungsreaktion des Analyten zu einer Änderung der Signalintensität des Fluorophors führen. Eine hohe Signalintensität bei Analytdetektion ist wünschenswert, insbesondere für Erkennungsreaktionen, die mit möglichst geringem apparativem Aufwand, am besten mit dem bloßen Auge zu verfolgen sein sollen. Des Weiteren ist es möglich den Fluorophorgehalt im Polymer genau einzustellen und so Selbstlöschung zu vermeiden. Die synthetisierten Polymere haben einen Fluorophorgehalt von 0,01 mol% bis 0,5 mol%. Für die RhodaminB haltigen Polymere zeigte sich, dass ein Fluorophorgehalt unterhalb 0,1 mol% im Polymer die höchsten Ausbeuten, Molmassen und Quantenausbeuten liefert. Für die Naphthalsäureimid haltigen Polymere hingegen wurden auch für einen Fluorophorgehalt von bis zu 1 mol% hohe Ausbeuten und Molmassen erreicht. Die Naphthalsäureimid haltigen Polymere haben jedoch in wässriger Lösungsmittelumgebung nur geringe Quantenausbeuten. Als Fluoreszenzlöscher wurden Goldnanopartikel synthetisiert, die mit den entsprechenden Erkennungsstrukturen (ß-CD oder ConA) für den verwendeten Analyten funktionalisiert wurden. Goldnanopartikel als Löscher bieten den Vorteil, dass ihre Dispergierbarkeit in einem Lösemittel durch Funktionalisierung ihrer Hülle gezielt gesteuert werden kann. Durch die hohe Affinität von Goldnanopartikeln zu Thiolen und Aminen konnten sie mit Hilfe einfacher Syntheseschritte mit Thio ß CD Derivaten bzw. ConA funktionalisiert werden. In der hier vorgelegten Arbeit sollte ein Modellsystem für einen solches fluoreszenz-basiertes Detektionssystem in Wasser entwickelt werden. Nachfolgend werden die zu erfüllenden strukturellen Voraussetzungen für die Synthese eines solchen Sensors nochmals zusammengefasst:
1. Verwendung eines Fluorophors, der eine hohe Signalintensität zeigt.
2. Analyt bzw. Erkennungseinheit soll sich im Abstand von wenigen Nanometern zum Signalgeber befinden, um bei jeder Detektionsreaktion die Signalintensität des Signalgebers beeinflussen zu können.
3. Die Detektionseinheit benötigt eine funktionelle Gruppe zur Immobilisierung. Immobilisierung kann z.B. durch Einbindung in ein Polymer erfolgen.
4. Der Fluorophor soll bei Änderung seiner lokalen Umgebung, durch Binden eines Löschers oder Änderung seiner Lösemittelumgebung seine Fluoreszenzeigenschaften drastisch ändern.
5. Die Reaktion sollte schnell und mit möglichst geringem apparativem Aufwand, am besten mit bloßem Auge zu verfolgen sein.
Für das ß-CD/Adamantan Modellsystem wurde ein Fluoreszenz Aus/An Sensor entwickelt, der bei Binden ß CD funktionalisierter Goldnanopartikel an das polymergebundene Adamantan die Fluoreszenz des RhodaminB Fluorophors effizient löscht und bei Verdrängung der Goldnanopartikel wieder zurück gewinnt. Dies konnte auch mit bloßem Auge verfolgt werden.
Für die Naphthalsäureimid Monomere, die mit NVCL copolymerisiert wurden, wurde abhängig von der lokalen Umgebung des Fluorophors eine unterschiedliche Verstärkung der Fluoreszenzintensität bei Überschreiten des Trübungspunktes des Polymers gefunden. Dabei zeigte sich, dass die Einführung eines Abstandshalters zwischen Polymerrückgrat und Fluorophor zu einer großen Fluoreszenz¬verstärkung führt, während sich ohne Abstandshalter die Fluoreszenzintensität bei Über¬schreiten des Trübungspunktes kaum ändert.
Modenschauen
(2015)
Wie kommt das Neue der Mode auf die Welt? Alicia Kühl zeigt, dass das Neue nicht mehr im Modedesign, sondern im Modenschaudesign behauptet wird. In ihrer modetheoretisch fundierten Arbeit, für die sie zudem Theorien des Performativen, des Raumes, der Atmosphären und des Neuen hinzuzieht, untersucht sie Modenschauen ausgewählter Haute-Couture-und Prêt-à-porter-Designer_innen der letzten 30 Jahre und zeichnet nach, inwieweit die in ihnen erzeugten Atmosphären als Lösung einer vestimentären »Inventionsbredouille« eingesetzt werden. Die Studie hinterfragt erstmals die Funktion und Position der Modenschau innerhalb des Modezyklus, was auch eine Neubewertung der Rolle der Kleidung nach sich zieht.
In der vorliegenden Dissertation werden Migrationsdiskurse in der deutschen Grenzregion zu Polen im Vorfeld der EU-Erweiterung zum 1. Mai 2004 exemplarisch in drei deutschen Grenzstädten, der jeweils westliche Teil der ehemals gemeinsamen, seit 1945 durch eine nationalstaatliche Grenze mit dem jeweils zeitspezifischen Grenzregime geteilten, deutsch-polnischen Zwillingsstädte Frankfurt (Oder) – Słubice, Guben – Gubin und Görlitz – Zgorzelec, analysiert.
Ausgewählt wurde der Untersuchungsraum mit Blick auf die tiefgreifenden europäischen Transformationsprozesse seit den späten 1980er Jahren, die für die örtliche Bevölkerung gravierende lebensweltliche Strukturumbrüche zur Folge hatten. Die Region wurde mit der Vereinigung der beiden deutschen Staaten überdies zu einem zentralen Aktionsraum nationaler und internationaler Migrationspolitik; ihr wurde eine wichtige stellvertretende Funktion betreffend die Zutrittsregelung zugewiesen. Mit der EU-Erweiterung waren für die Region neuerliche, unmittelbare Veränderungen verbunden, die vor Ort gerade auch aufgrund damit (mutmaßlich) einhergehender Migration eher als Bedrohung denn als Chance gedeutet wurden.
Den diskurstheoretischen Hintergrund der Untersuchungen stellen in erster Linie die Arbeiten von Michel Foucault und die von Siegfried Jäger darauf aufruhend konzipierte Kritische Diskursanalyse bereit. Diskurs wird – grob vereinfacht – als Fluss von sozialen Wissensbeständen und Bewusstseinsinhalten durch die Zeit verstanden, der individuelles und kollektives Handeln von Menschen bestimmt; Diskurse sind der Ort, an dem (Be-)Deutungen von Menschen ausgehandelt, verändert und der Wirklichkeit zugewiesen werden. Der Forschungszugang versteht sich als Teil der Neuen Kulturgeographie, die konsequent nicht-essentialistisch und erkenntnistheoretisch nicht-fundamentalistisch ist.
Die Datenbasis der empirischen Analysen repräsentieren zwei Ebenen bzw. Teilsektoren des Diskurses. Zum einen die Berichterstattung der jeweils monopolartigen regionalen Tageszeitung in Frankfurt (Oder), Guben und Görlitz (Märkische Oderzeitung/Frankfurter Stadtbote, Lausitzer Rundschau/Lokalausgabe Guben, Sächsische Zeitung/Görlitzer Zeitung). Zum anderen ein Sample von insgesamt 17 Experteninterviews mit lokalen Funktionsträgern, die mit Blick auf ihr, an ihre spezifische professionelle und/oder ehrenamtliche Tätigkeit gebundenes, praxisgesättigtes Sonder- bzw. Insiderwissen zum Thema Migration ausgewählt und befragt wurden.
Die durchgeführten Analysen verdeutlichen unter anderem die Bedeutung diskurssemantischer Grundfiguren des deutschen Migrationsdiskurses im Sinne politisch und alltagskulturell konservierter migrationskritischer Vorstellungsinhalte und Bedeutungszuweisungen zu Kategorien des Fremden und Konstruktionen von Wir und/vs. Sie. Ebenso explizieren sie eine gravierende Diskrepanz zwischen dem lokalen Staat und der Lebenswelt der lokalen Bevölkerung.
Der Mensch in der Moderne lebt in einem Spannungsverhältnis zwischen all dem, was nun menschenmöglich erscheint und dem, was er als Einzelner, aufgrund seines beschränkten Kräftehaushalts, zu leisten vermag. Die notwendige Spezialisierung in einem beschränkten Feld schließt ihn, wie Max Weber es in »Wissenschaft als Beruf« darstellt, von vielen anderen Bereichen aus. Besonders eklatant wird dies in der Zeit der Wende vom 19. zum 20. Jahrhundert empfunden, welche die verschiedensten Versuche hervorbringt, Synthesen zwischen den ausdifferenzierten Wissensgebieten herzustellen. Einen besonderen Stellenwert hat hier das Wissen der Naturwissenschaftler, auf welche noch der materialistische und positivistische Optimismus des 19. Jahrhunderts wirkt.
An den Autobiographien des spanischen Histologen Santiago Ramón y Cajal (1852-1934) und des deutschen Chemikers Wilhelm Ostwald (1853-1932) zeigt sich exemplarisch, wie naturwissenschaftliche Spezialisten als Autoren auf dieses Spannungsverhältnis reagieren. In drei Kapiteln führt die literaturwissenschaftliche Untersuchung vor, wie die Autoren sprachliche Formen aus ihrer Spezialisierung entlehnen und für die Darstellung des eigenen Lebens nutzen. Historisch führt die Lektüre zu dem Schluss, dass in diesen Texten eine Verschiebung des Positivismus aus der Philosophie in die Autobiographik stattfindet.
Systematisch stellt der im Band entwickelte Begriff des biographischen Lebenswissens einen Versuch dar, das Leben des Einzelnen für die Sinngebung im Text starkzumachen, ohne in Biographismus oder ein Konzept starker Autorschaft zurückzufallen.
Kopplungsangebote
(2015)
Kopplungsangebote, insbesondere Kundenbindungssysteme, werfen zahlreiche lauterkeits- und vertragsrechtliche Fragen auf. Das Buch stellt alle Anforderungen, die an den Inhalt und die Transparenz von Kopplungsangeboten gestellt werden, dar und berücksichtigt auch wettbewerbsrechtliche Nebengesetze (z. B. die PAngV) sowie spezialgesetzliche Kopplungsverbote. Der Autor untersucht, in welchem Fall Kopplungsgeschäfte verbotsgesetz- oder sittenwidrig sind: Ab wann stellen etwa Kopplungsangebote gegenüber Drittverantwortlichen nichtige Korruptionsabreden (§ 299 StGB) dar? Es liegt damit eine Gesamtdarstellung der Kopplungsangebote im geltenden Vertrags- und Lauterkeitsrecht vor, die den Anspruch stellt, eine Beurteilung der Zulässigkeit spezifischer Angebote so weit wie möglich abstrakt zuzulassen.
Gut ausgebildete Schreibkompetenzen gelten als zentrale Voraussetzung für den schulischen Erfolg. Wenngleich die schriftliche Textproduktion unbestritten fester Bestandteil des Deutschunterrichts ist, wird vielfach beklagt, dass die vorhandenen Schreibkompetenzen unzureichend sind. Blickt man auf die fachdidaktische Forschung so zeigt sich, dass Schreibkompetenz ein schwer zu definierendes Phänomen bleibt und innerhalb der schreibdidaktischen Forschung strittig ist, wie Schreibkompetenz – insbesondere nach Erwerb der grundlegenden Schreibfertigkeiten – am Besten entwickelt werden kann. Zudem gilt für das Fach Deutsch, insbesondere den Aufgabenbereich „Texte verfassen“, das eine empirische Fundierung der Fachdidaktik bisher kaum realisiert wurde.
Vor diesem Hintergrund wurde in der vorgelegten Arbeit ein Programm zu Förderung der schriftlichen Erzählfähigkeit von Fünftklässlern entwickelt und anschließend in der regulären Unterrichtspraxis eingesetzt und begleitend evaluiert. Methodisch orientiert sich die Arbeit dabei im Hinblick auf die Konzeption, Umsetzung und Evaluation des Förderprogramms an den von Einsiedler postulierten „Standards der (didaktischen) Entwicklungsforschung“.
Bei der im ersten Schritt erfolgten Konzeption des Förderprogramms ging es darum eine spezifische, didaktische Konzeption, die Kombination sprachstruktur- und (lern)prozessbezogenener Elemente, sprachwissenschaftlich basiert und pädagogisch-didaktisch begründet zu entwickeln. Bei der hierzu notwendigen Integration verschiedener theoretischer Zugänge unterschiedlicher Fachdisziplinen galt es vorhandene Ansätze im Hinblick auf interne Anschlussmöglichkeiten auszuloten und auf diesem Wege einen sich gegenseitig ergänzenden, umfassenden Bezugsrahmen zu schaffen. Dabei gelang - unter Einbeziehung von Modellen und Befunden aus der Schreibentwicklungsforschung - die innerhalb der Schreibforschung vielfach geforderte, jedoch bisher fehlende Integration von strukturellen Ansätzen aus der linguistischen Schreibforschung mit den innerhalb der Kognitionspsychologie favorisierten prozessuellen Ansätzen.
Auf dieser Grundlage wurde ein aufgabenbasiertes Programm mit insgesamt acht verschiedenen Fördermodulen entwickelt, aufgabenbasiert deshalb, weil dies nicht nur einen lehrergesteuerten aber schülerzentrierten Unterricht ermöglicht, sondern auch einen adaptiven Unterricht, somit den spezifischen Anforderungen des Unterrichts in heterogenen Lerngruppen gerecht wird, was angesichts der zunehmenden (sprachlich-kulturellen) Heterogenität in regulären Schulklassen sinnvoll scheint.
In einem zweiten Schritt wurde innerhalb einer Pilotstudie die Umsetzbarkeit des Förderprogramms im schulischen Kontext erprobt. Unter Kontrolle seiner praktischen Umsetzbarkeit (Machbarkeitshypothese) wurde im Anschluss daran die Wirksamkeit des Förderprogramms im Hinblick auf eine Steigerung in den produktbezogenen Schreibmaßen (Wortschatzvarianz, Satzkomplexität, lexikalische Dichte, Kohäsionsgrade, Textlänge) und die Stabilität der Fördereffekte untersucht. Dies geschah mittels eines quasiexperimentellen Untersuchungsplans, genauer eines Zweigruppen-Pretest-Posttest-Follow-up-Plans mit Kontrollvariablen.
Grundlage hierfür war eine möglichst heterogene Stichprobe von knapp 200 Schüler/innen. Denn angesichts der angesprochenen zunehmenden Heterogenität in regulären Schulklassen galt es neben der Wirksamkeit und Nachhaltigkeit des Förderprogramms auch dessen Eignung für den Unterricht in heterogenen Lerngruppen zu prüfen. Die Ergebnisse dieser Prüfung sprechen dafür, dass es gelungen ist ein entsprechendes Förderprogramm zu entwickeln.
Trotz dem Auftreten von forschungsmethodischen Schwierigkeiten, die innerhalb der vorgelegten Arbeit ausführlich im Hinblick auf Ursachen und Wirkungen diskutiert werden, können, unter Berücksichtigung des explorativen Charakters der Studie, die Ergebnisse insbesondere zur Wortschatzvarianz und zur Satzkomplexität ebenfalls als Indizien für die Effektivität des Förderprogramms gelten.