Refine
Has Fulltext
- yes (238) (remove)
Year of publication
- 2017 (238) (remove)
Document Type
- Article (143)
- Doctoral Thesis (32)
- Part of Periodical (20)
- Monograph/Edited Volume (16)
- Postprint (12)
- Master's Thesis (8)
- Review (2)
- Bachelor Thesis (1)
- Conference Proceeding (1)
- Habilitation Thesis (1)
Language
- German (238) (remove)
Keywords
- Philosophie (15)
- philosophy (15)
- Bürgerkommune (12)
- Partizipation (12)
- Partizipationsprozesse (12)
- kommunale Demokratie (12)
- kommunale Entscheidungsprozesse (12)
- Genisa (10)
- Geniza (10)
- Jewish Studies (10)
Institute
- Department Erziehungswissenschaft (23)
- MenschenRechtsZentrum (23)
- Arbeitskreis Militär und Gesellschaft in der Frühen Neuzeit e. V. (20)
- Department Musik und Kunst (19)
- Department Linguistik (17)
- Verband für Patholinguistik e. V. (vpl) (17)
- Extern (16)
- Institut für Germanistik (13)
- Kommunalwissenschaftliches Institut (12)
- Institut für Chemie (11)
Die Elektrosprayionisation (ESI) ist eine der weitverbreitetsten Ionisationstechniken für flüssige Pro-ben in der Massen- und Ionenmobilitäts(IM)-Spektrometrie. Aufgrund ihrer schonenden Ionisierung wird ESI vorwiegend für empfindliche, komplexe Moleküle in der Biologie und Medizin eingesetzt. Überdies ist sie allerdings für ein sehr breites Spektrum an Substanzklassen anwendbar. Die IM-Spektrometrie wurde ursprünglich zur Detektion gasförmiger Proben entwickelt, die hauptsächlich durch radioaktive Quellen ionisiert werden. Sie ist die einzige analytische Methode, bei der Isomere in Echtzeit getrennt und über ihre charakteristische IM direkt identifiziert werden können. ESI wurde in den 90ger Jahren durch die Hill Gruppe in die IM-Spektrometrie eingeführt. Die Kombination wird bisher jedoch nur von wenigen Gruppen verwendet und hat deshalb noch ein hohes Entwick-lungspotential. Ein vielversprechendes Anwendungsfeld ist der Einsatz in der Hochleistungs-flüssigkeitschromatographie (HPLC) zur mehrdimensionalen Trennung. Heutzutage ist die HPLC die Standardmethode zur Trennung komplexer Proben in der Routineanalytik. HPLC-Trennungsgänge sind jedoch häufig langwierig und der Einsatz verschiedener Laufmittel, hoher Flussraten, von Puffern, sowie Laufmittelgradienten stellt hohe Anforderungen an die Detektoren. Die ESI-IM-Spektrometrie wurde in einigen Studien bereits als HPLC-Detektor eingesetzt, war dort bisher jedoch auf Flussratensplitting oder geringe Flussraten des Laufmittels beschränkt.
In dieser kumulativen Doktorarbeit konnte daher erstmals ein ESI IM-Spektrometer als HPLC-Detektor für den Flussratenbereich von 200-1500 μl/min entwickelt werden. Anhand von fünf Publi-kationen wurden (1) über eine umfassende Charakterisierung die Eignung des Spektrometers als HPLC-Detektor festgestellt, (2) ausgewählte komplexe Trenngänge präsentiert und (3) die Anwen-dung zum Reaktionsmonitoring und (4, 5) mögliche Weiterentwicklungen gezeigt.
Erfolgreich konnten mit dem selbst-entwickelten ESI IM-Spektrometer typische HPLC-Bedingungen wie Wassergehalte im Laufmittel von bis zu 90%, Pufferkonzentrationen von bis zu 10 mM, sowie Nachweisgrenzen von bis zu 50 nM erreicht werden. Weiterhin wurde anhand der komplexen Trennungsgänge (24 Pestizide/18 Aminosäuren) gezeigt, dass die HPLC und die IM-Spektrometrie eine hohe Orthogonalität besitzen. Eine effektive Peakkapazität von 240 wurde so realisiert. Auf der HPLC-Säule koeluierende Substanzen konnten über die Driftzeit getrennt und über ihre IM identifi-ziert werden, sodass die Gesamttrennzeiten erheblich minimiert werden konnten. Die Anwend-barkeit des ESI IM-Spektrometers zur Überwachung chemischer Synthesen wurde anhand einer dreistufigen Reaktion demonstriert. Es konnten die wichtigsten Edukte, Zwischenprodukte und Produkte aller Stufen identifiziert werden. Eine quantitative Auswertung war sowohl über eine kurze HPLC-Vortrennung als auch durch die Entwicklung eines eigenen Kalibrierverfahrens, welches die Ladungskonkurrenz bei ESI berücksichtigt, ohne HPLC möglich. Im zweiten Teil der Arbeit werden zwei Weiterentwicklungen des Spektrometers präsentiert. Eine Möglichkeit ist die Reduzierung des Drucks in den intermediären Bereich (300 - 1000 mbar) mit dem Ziel der Verringerung der benötigten Spannungen. Mithilfe von Streulichtbildern und Strom-Spannungs-Kurven wurden für geringe Drücke eine verminderte Freisetzung der Analyt-Ionen aus den Tropfen festgestellt. Die Verluste konnten jedoch über höhere elektrische Feldstärken ausgeglichen werden, sodass gleiche Nachweisgrenzen bei 500 mbar und bei 1 bar erreicht wurden. Die zweite Weiterentwicklung ist ein neuartiges Ionentors mit Pulsschaltung, welches eine Verdopplung der Auflösung auf bis zu R > 100 bei gleicher Sensitivität ermöglichte. Eine denkbare Anwendung im Bereich der Peptidanalytik wurde mit beachtlichen Auflösungen der Peptide von R = 90 gezeigt.
In einer prospektiven Längsschnittstudie wurden Auswirkungen früher psychosozialer Risiken bis ins junge Erwachsenenalter untersucht und dabei die Rolle von affektiver und behavioraler Dysregulation im Kindesalter als vermittelndem Faktor überprüft. Drei Monate nach der Geburt wurde das Vorliegen von 11 psychosozialen Belastungsfaktoren erfasst. Im Alter von 8 – 15 Jahren wurde dreimal das Child Behavior Checklist-Dysregulationsprofil (CBCL-DP) erhoben. Mit 25 Jahren wurde ein Strukturiertes Klinisches Interview durchgeführt und 309 der Teilnehmer füllten den Young Adult Self-Report aus. Frühe psychosoziale Risiken gingen mit einem erhöhten Risiko für das Vorliegen eines Substanzmissbrauchs im jungen Erwachsenenalter sowie mit erhöhtem externalisierendem und internalisierendem Problemverhalten einher. Der Zusammenhang zwischen frühen psychosozialen Risiken und späterem externalisierendem bzw. internalisierendem Problemverhalten wurde durch das CBCL-DP vermittelt.
Die langfristigen Auswirkungen von Frühgeburtlichkeit auf kognitive Entwicklung und Schulerfolg
(2017)
In einer prospektiven Längsschnittstudie wurde der Zusammenhang zwischen früher Responsivität der Mutter und kognitiver Entwicklung ihrer früh- bzw. reifgeborenen Kinder untersucht. Im Alter von drei Monaten wurde dafür die Mutter-Kind-Interaktion mittels Verhaltensbeobachtung erfasst. Bei n=351 der teilnehmenden Kinder (101 frühgeboren) wurde die allgemeine Intelligenz (IQ) im Alter von 11 Jahren und bei n=313 (85 frühgeboren) zusätzlich der höchste erreichte Schulabschluss bis 25 Jahren erhoben. Frühgeborene wiesen mit 11 Jahren einen signifikant niedrigeren IQ als Reifgeborene auf, nachdem für mögliche konfundierende Faktoren kontrolliert worden war. Nur bei Früh-, nicht aber bei Reifgeborenen zeigte sich ein signifikanter positiver Zusammenhang zwischen mütterlicher Responsivität und IQ. Für die Wahrscheinlichkeit einen höheren Schulabschluss (mind. Fachabitur) zu erreichen, fand sich weder ein signifikanter Effekt von Frühgeburtlichkeit noch von mütterlicher Responsivität.
Die zerstörungsfreien Prüfungen von Bauwerken mit Hilfe von Ultraschallmessverfahren haben in den letzten Jahren an Bedeutung gewonnen. Durch Ultraschallmessungen können die Geometrien von Bauteilen bestimmt sowie von außen nicht sichtbare Fehler wie Delaminationen und Kiesnester erkannt werden.
Mit neuartigen, in das Betonbauteil eingebetteten Ultraschallprüfköpfen sollen nun Bauwerke dauerhaft auf Veränderungen überprüft werden. Dazu werden Ultraschallsignale direkt im Inneren eines Bauteils erzeugt, was die Möglichkeiten der herkömmlichen Methoden der Bauwerksüberwachung wesentlich erweitert. Ein Ultraschallverfahren könnte mit eingebetteten Prüfköpfen ein Betonbauteil kontinuierlich integral überwachen und damit auch stetig fortschreitende Gefügeänderungen, wie beispielsweise Mikrorisse, registrieren.
Sicherheitsrelevante Bauteile, die nach dem Einbau für Messungen unzugänglich oder mittels Ultraschall, beispielsweise durch zusätzliche Beschichtungen der Oberfläche, nicht prüfbar sind, lassen sich mit eingebetteten Prüfköpfen überwachen. An bereits vorhandenen Bauwerken können die Ultraschallprüfköpfe mithilfe von Bohrlöchern und speziellem Verpressmörtel auch nachträglich in das Bauteil integriert werden. Für Fertigbauteile bieten sich eingebettete Prüfköpfe zur Herstellungskontrolle sowie zur Überwachung der Baudurchführung als Werkzeug der Qualitätssicherung an. Auch die schnelle Schadensanalyse eines Bauwerks nach Naturkatastrophen, wie beispielsweise einem Erdbeben oder einer Flut, ist denkbar.
Durch die gute Ankopplung ermöglichen diese neuartigen Prüfköpfe den Einsatz von empfindlichen Auswertungsmethoden, wie die Kreuzkorrelation, die Coda-Wellen-Interferometrie oder die Amplitudenauswertung, für die Signalanalyse. Bei regelmäßigen Messungen können somit sich anbahnende Schäden eines Bauwerks frühzeitig erkannt werden.
Da die Schädigung eines Bauwerks keine direkt messbare Größe darstellt, erfordert eine eindeutige Schadenserkennung in der Regel die Messung mehrerer physikalischer Größen die geeignet verknüpft werden. Physikalische Größen können sein: Ultraschalllaufzeit, Amplitude des Ultraschallsignals und Umgebungstemperatur. Dazu müssen Korrelationen zwischen dem Zustand des Bauwerks, den Umgebungsbedingungen und den Parametern des gemessenen Ultraschallsignals untersucht werden.
In dieser Arbeit werden die neuartigen Prüfköpfe vorgestellt. Es wird beschrieben, dass sie sich, sowohl in bereits errichtete Betonbauwerke als auch in der Konstruktion befindliche, einbauen lassen. Experimentell wird gezeigt, dass die Prüfköpfe in mehreren Ebenen eingebettet sein können da ihre Abstrahlcharakteristik im Beton nahezu ungerichtet ist. Die Mittenfrequenz von rund 62 kHz ermöglicht Abstände, je nach Betonart und SRV, von mindestens 3 m zwischen Prüfköpfen die als Sender und Empfänger arbeiten. Die Empfindlichkeit der eingebetteten Prüfköpfe gegenüber Veränderungen im Beton wird an Hand von zwei Laborexperimenten gezeigt, einem Drei-Punkt-Biegeversuch und einem Versuch zur Erzeugung von Frost-Tau-Wechsel Schäden. Die Ergebnisse werden mit anderen zerstörungsfreien Prüfverfahren verglichen. Es zeigt sich, dass die Prüfköpfe durch die Anwendung empfindlicher Auswertemethoden, auftretende Risse im Beton detektieren, bevor diese eine Gefahr für das Bauwerk darstellen. Abschließend werden Beispiele von Installation der neuartigen Ultraschallprüfköpfe in realen Bauteilen, zwei Brücken und einem Fundament, gezeigt und basierend auf dort gewonnenen ersten Erfahrungen ein Konzept für die Umsetzung einer Langzeitüberwachung aufgestellt.
Der Arbeitskreis Militär und Gesellschaft in der Frühen Neuzeit e. V. wurde im Frühjahr 1995 gegründet. Er hat es sich zur Aufgabe gemacht, die Erforschung des Militärs im Rahmen der frühneuzeitlichen Geschichte zu befördern und zugleich das Bewusstsein der Frühneuzeit-HistorikerInnen für die Bedeutung des Militärs in all seinen Funktionen zu wecken. Das Militär steht somit als soziale Gruppe selbst im Mittelpunkt der Aktivitäten des Arbeitskreises, wird aber auch in seinen Wirkungen und Repräsentationen thematisiert. Ziel ist es, die Rolle des Militärs als Teil der frühneuzeitlichen Gesellschaft umfassend herauszuarbeiten und zu würdigen. Insofern versteht der AMG seine Arbeit nicht nur als Beitrag zur Militärgeschichte, sondern vor allem als Beitrag zur Geschichte der Frühen Neuzeit insgesamt. Der Arbeitskreis bietet ein Diskussions- und Informationsforum durch die Organisation von Tagungen, die Herausgabe der Schriftenreihe ‚Herrschaft und soziale Systeme in der Frühen Neuzeit‘, die Zeitschrift ‚Militär und Gesellschaft in der Frühen Neuzeit‘ und die Mailingliste mil-fnz.
Einleitung
(2017)
„Könn’Se berlinern?“
(2017)
Franz Ferdinand Julius Meyen (1804–1840) veröffentlichte auf sehr vielen Gebieten der Biologie wichtige Arbeiten, vor allem in Botanik und Zoologie. Mit Unterstützung Alexander von Humboldts gelang es ihm, auf dem Forschungsschiff „Prinzess Louise“ anzuheuern und als Schiffsarzt an einer mehrjährigen Weltreise teilzunehmen. Humboldt, der einige Regionen ebenfalls besucht und erforscht hatte, unterstützte seinen jungen Kollegen bei der Vorbereitung seiner Reise. Meyen veröffentlichte seine Reiseergebnisse bereits kurz nach seiner Rückkehr, gefördert von Christian Gottfried Nees von Esenbeck (1776–1858), sowohl als zweiteiligen historischen Reisebericht als auch in sieben Einzelabhandlungen. Einige Ergebnisse, die er, schwerkrank, nicht selbst verwerten konnte, übergab er noch bei Lebzeiten zur Bearbeitung an Spezialisten, andere wurden posthum von Mitgliedern der Leopoldina publiziert. Meyen brachte u. a. eine umfangreiche Sammlung an Vogelpräparaten mit, zu denen auch das Erstbeschreibungsexemplar des von ihm so genannten Spheniscus humboldti (Trivialname: Humboldt-Pinguin) gehört.
Editorial
(2017)
Editorial
(2017)
Kurz vor ihrem sechzigsten Geburtstag ist die europäische Union mit inneren und äußeren Herausforderungen konfrontiert und befindet sich in einer tiefen Krise. Am 1. März 2017 legte Kommissionspräsident Juncker das „Weißbuch über die Zukunft der Europäischen Union“ vor, in dem er verschiedene Szenarien darlegt und zur Diskussion über die anste-henden Entscheidungen einlädt. Diese Papier versteht sich als ein solcher Diskussionsbei-trag.
Gegenstand der Dissertation ist die Präsentation von Kleidermode in ihr gewidmeten Sonderausstellungen, die in zunehmender Zahl seit den 1990er Jahren in musealen und musemsähnlichen Kontexten veranstaltet werden. Es geht darum, wie Modekörper und vestimentäre Artefakte in diesen Ausstellungen gezeigt werden und welche ästhetischen Erfahrungen sich für die RezipientInnen aus der jeweiligen Konstellation von vestimentärem Objekt und Inszenierungsmittel ergeben können. Das Augenmerk liegt auf der Spannung zwischen dem visuellen Imperativ musealer Zeigepraktiken und den multisensorischen Qualitäten der Kleidermode, v. a. jener hautsinnlichen, die sich aus dem unmittelbaren Kontakt zwischen Körper und Kleid ergeben.
Die zentrale These ist, dass sich das Hautsinnliche der Kleidermode trotz des Berührungsverbots in vielen Ausstellungsinszenierungen zeigen kann. D. h., dass – entgegen häufig wiederholter Behauptungen – ‚der Körper‘, das Tragen und die Bewegung nicht per se oder komplett aus den Kleidern gewichen sind, werden diese musealisiert und ausgestellt. Es findet eine Verschiebung des Körperlichen und Hautsinnlichen, wie das Anfassen, Tragen und Bewegen, in visuelle Darstellungsformen statt. Hautsinnliche Qualitäten der vestimentären Exponate können, auch in Abhängigkeit von den jeweils verwendeten Präsentationsmitteln, von den BesucherInnen in unterschiedlichen Abstufungen sehend oder buchstäblich gespürt werden.
An konkreten Beispielen wird zum einen das Verhältnis von ausgestelltem Kleid und Präsentationsmittel(n) in den Displays untersucht. Dabei stehen folgende Mittel im Fokus, mit deren Hilfe die vestimentären Exponate zur Schau gestellt werden: Vitrinen, Podeste, Ersatzkörper wie Mannequins, optische Hilfsmittel wie Lupen, Bildmedien oder (bewegte) Installationen. Zum anderen wird analysiert, welche Wirkungen die Arrangements jeweils erzielen oder verhindern können, und zwar in Hinblick auf mögliche ästhetische Erfahrungen, die taktilen, haptischen und kinästhetischen Qualitäten der Exponate als BesucherIn sehend oder buchstäblich zu fühlen oder zu spüren. Ob als Identifikation, Projektion, Haptic Vision – es handelt sich um ästhetische Erfahrungen, die sich aus den modischen Kompetenzen der BetrachterInnen speisen und bei denen sich Visuelles und Hautsinnliches oft überlagern.
In der Untersuchung wird eine vernachlässigte, wenn nicht gar unerwünschte Rezeptionsweise diskutiert, die von den AkteurInnen der spezifischen Debatte bspw. als konsumptives Sehen abgewertet wird. Die von mir vorgeschlagene, stärker differenzierende Perspektive ist zugleich eine Kritik an dem bisherigen Diskurs und seinem eng gefassten, teilweise elitären Verständnis von Museum, Bildung und Wissen, mit dem sich AkteurInnen und Institutionen abgrenzen. Der Spezialdiskurs über musealisierte und exponierte Kleidermode steht zudem exemplarisch für die Diskussion, was das Museum, verstanden als Institution, sein kann und soll(te) und ob (und wenn ja, wie) es sich überhaupt noch von anderen Orten und Räumen klar abgrenzen lässt.
‚Ma‘oz tsur jeshu‘ati‘
(2017)
The article presents first results of a pilot study on the syntactic changes in Polish as a language contact in Germany. On the base of the experimental data tests the study examines the syntactic changes in Polish of two diaspora-generations: the so called forgetters and the incomplete learners. The article focuses on the questions: how the situation of languages in contact influences the syntactic changes in the heritage language (Polish) and which status have those syntactic transferences. Other linguistic and sociolinguistic factors, capable to cause the language change in the situation of language contact, are also discussed in the article.
Humboldt hat auf seiner Russlandreise 1829 eine Anzahl von Büchern und Schriften in mongolischer, kalmükischer, armenischer, chinesischer, tibetischer und mandschurischer Sprache als Geschenk erhalten. Darüber hinaus hat er drei persische Handschriften käuflich erworben. Das umfangreichste Stück ist der chinesische Roman Geschichte der Drei Reiche. Humboldt hatte den Altphilologen und Kenner des Armenischen und Chinesischen, Carl Friedrich Neumann, gebeten, diese Titel zu katalogisieren. Als die Liste im Druck erschien (während Neumann sich auf einer Chinareise befand), führten die Monita zu einer Gelehrtenfehde. Danach gerieten die Bücher, eine bunte Mischung, bald in Vergessenheit. Vorliegender Artikel gibt eine Liste auf Grund des heutigen Befundes in der Staatsbibliothek zu Berlin, für die der Sammler die Bücher von Anfang an bestimmt hatte, wie mehrere Beischriften belegen.
Das Ziel der Arbeit ist die Entwicklung eines heuristischen Bezugsrahmens zur Erklärung der Komplexität im Kontext von Industrie 4.0 und der demografischen Entwicklung aus strukturationstheoretischer Sicht. Dabei sind in Bezug auf die zukünftig zu erwartenden kognitiven Anforderungen an die Beschäftigten die Fragen essentiell, vor welchen Herausforderungen Unternehmen bezüglich der Einstellung und dem Verhalten sowie dem Erfahrungswissen der Beschäftigten stehen und welche Lösungsansätze sich im Umgang mit den Herausforderungen in der Praxis bisher als hilfreich erweisen.
In Kapitel 1 erfolgt zunächst die Beschreibung der Ausgangslage. Es werden die Begriffe Industrie 4.0 und demografische Entwicklung inhaltlich diskutiert und in einen theoretischen Zusammenhang gebracht.
In Kapitel 2 erfolgt die theoretische Fundierung der Arbeit. Dabei wird eine strukturationstheoretische Sicht auf Unternehmen als soziotechnische Systeme eingenommen. Durch diese „nicht deterministische“ Sichtweise wird ein prozessualer Blick auf den Wandlungsprozess in Unternehmen geschaffen, der es möglich macht, die Beschäftigten als aktiv handelnde Akteure im Sinne von „organisieren“ zur Erklärung möglicher Zusammenhänge zwischen Industrie 4.0 und der demografischen Entwicklung mit einzubeziehen. Der soziotechnische Systemansatz und die Strukturationstheorie bilden in diesem Sinne den „Kern“ des zu entwickelnden heuristischen Bezugsrahmens.
Die inhaltliche Gestaltung des theoriebasierten heuristischen Bezugsrahmens erfolgt in Kapitel 3 und Kapitel 4.
Kapitel 3 beschreibt ausgewählte Aspekte zukünftiger Anforderungen an die Arbeit, die durch eine systematische Aufbereitung des derzeitigen Forschungsstandes zu Industrie 4.0 ermittelt wurden. Sie bilden die „Gestaltungsgrenzen“, innerhalb derer sich je nach betrieblicher Situation unterschiedliche neue oder geänderte Anforderungen an die Beschäftigten bei der Gestaltung von Industrie 4.0 ableiten lassen.
In Kapitel 4 werden ausgewählte Aspekte menschlichen Handelns am Beispiel älterer Beschäftigter in Form zweier Schwerpunkte beschrieben.
Der erste Schwerpunkt betrifft mögliche Einflussfaktoren auf die Einstellung und das Verhalten älterer Beschäftigter im Wandlungsprozess aufgrund eines vorherrschenden Altersbildes im Unternehmen. Grundlage hierzu bildete die Stigmatisierungstheorie als interaktionistischer Ansatz der Sozialtheorie.
Mit dem zweiten Schwerpunkt, den ausgewählten handlungstheoretischen Aspekten der Alternsforschung aus der Entwicklungspsychologie, wird eine Lebensspannenperspektive eingenommen. Inhaltlich werden die komplexitätsinduzierten Faktoren, die sich aus handlungstheoretischer Perspektive mit der Adaptation von älteren Beschäftigten an veränderte äußere und persönliche Lebensbedingungen beschäftigen, systematisiert.
Anschließend wird auf Grundlage der bisherigen theoretischen Vorüberlegungen ein erster theoriebasierter Bezugsrahmen abgeleitet.
Kapitel 5 und Kapitel 6 beschreiben den empirischen Teil, die Durchführung teilstrukturierter Interviews, der Arbeit. Ziel der empirischen Untersuchung war es, neben der theoretischen Fundierung den theoriebasierten heuristischen Bezugsrahmen um Praxiserfahrungen zu konkretisieren und gegebenenfalls zu ergänzen. Hierzu wurde auf Grundlage des theoriebasierten heuristischen Bezugsrahmens mittels teilstrukturierter Interviews das Erfahrungswissen von 23 Experten in persönlichen Gesprächen abgefragt.
Nachdem in Kapitel 5 die Vorgehensweise der empirischen Untersuchung beschrieben wird, erfolgt in Kapitel 6 die Beschreibung der Ergebnisse aus der qualitativen Befragung. Hierzu werden aus den persönlichen Gesprächen zentrale Einflussfaktoren bei der Gestaltung und Umsetzung von Industrie 4.0 im Kontext mit der demografischen Entwicklung analysiert und in die übergeordneten Kategorien Handlungskompetenzen, Einstellung/ Verhalten sowie Erfahrungswissen geclustert.
Anschließend wird der theoriebasierte heuristische Bezugsrahmen durch die übergeordneten Kategorien und Faktoren aus den Expertengesprächen konkretisiert und ergänzt.
In Kapitel 7 werden auf Grundlage des heuristischen Bezugsrahmens sowie der Empfehlungen aus den Experteninterviews beispielhaft Implikationen für die Praxis abgeleitet. Es werden Interventionsmöglichkeiten zur Unterstützung einer positiven Veränderungsbereitschaft und einem positiven Veränderungsverhalten für den Strukturwandel aufgezeigt. Hierzu gehören die Anpassung des Führungsverhaltens im Wandlungsprozess, der Umgang mit der Paradoxie von Stabilität und Flexibilität, der Umgang mit Altersstereotypen in Unternehmen, die Unterstützung von Strategien zu Selektion, Optimierung und Kompensation sowie Maßnahmen zur Ausrichtung von Aktivitäten an die Potenzialrisiken der Beschäftigten.
Eine Zusammenfassung, ein Resümee und ein Ausblick erfolgen abschließend in Kapitel 8.
Einleitung: Die Erdnussallergie zählt zu den häufigsten Nahrungsmittelallergien im Kindesalter. Bereits kleine Mengen Erdnuss (EN) können zu schweren allergischen Reaktionen führen. EN ist der häufigste Auslöser einer lebensbedrohlichen Anaphylaxie bei Kindern und Jugendlichen. Im Gegensatz zu anderen frühkindlichen Nahrungsmittelallergien entwickeln Patienten mit einer EN-Allergie nur selten eine natürliche Toleranz. Seit mehreren Jahren wird daher an kausalen Therapiemöglichkeiten für EN-Allergiker, insbesondere an der oralen Immuntherapie (OIT), geforscht. Erste kleinere Studien zur OIT bei EN-Allergie zeigten erfolgsversprechende Ergebnisse. Im Rahmen einer randomisierten, doppelblind, Placebo-kontrollierten Studie mit größerer Fallzahl werden in der vorliegenden Arbeit die klinische Wirksamkeit und Sicherheit dieser Therapieoption bei Kindern mit EN-Allergie genauer evaluiert. Des Weiteren werden immunologische Veränderungen sowie die Lebensqualität und Therapiebelastung unter OIT untersucht.
Methoden: Kinder zwischen 3-18 Jahren mit einer IgE-vermittelten EN-Allergie wurden in die Studie eingeschlossen. Vor Beginn der OIT wurde eine orale Provokation mit EN durchgeführt. Die Patienten wurden 1:1 randomisiert und entsprechend der Verum- oder Placebogruppe zugeordnet. Begonnen wurde mit 2-120 mg EN bzw. Placebo pro Tag, abhängig von der Reaktionsdosis bei der oralen Provokation. Zunächst wurde die tägliche OIT-Dosis alle zwei Wochen über etwa 14 Monate langsam bis zu einer Erhaltungsdosis von mindestens 500 mg EN (= 125 mg EN-Protein, ~ 1 kleine EN) bzw. Placebo gesteigert. Die maximal erreichte Dosis wurde dann über zwei Monate täglich zu Hause verabreicht. Im Anschluss erfolgte erneut eine orale Provokation mit EN. Der primäre Endpunkt der Studie war die Anzahl an Patienten der Verum- und Placebogruppe, die unter oraler Provokation nach OIT ≥1200 mg EN vertrugen (=„partielle Desensibilisierung“). Sowohl vor als auch nach OIT wurde ein Hautpricktest mit EN durchgeführt und EN-spezifisches IgE und IgG4 im Serum bestimmt. Außerdem wurden die Basophilenaktivierung sowie die Ausschüttung von T-Zell-spezifischen Zytokinen nach Stimulation mit EN in vitro gemessen. Anhand von Fragebögen wurde die Lebensqualität vor und nach OIT sowie die Therapiebelastung während OIT erfasst.
Ergebnisse: 62 Patienten wurden in die Studie eingeschlossen und randomisiert. Nach etwa 16 Monaten unter OIT zeigten 74,2% (23/31) der Patienten der Verumgruppe und nur 16,1% (5/31) der Placebogruppe eine „partielle Desensibilisierung“ gegenüber EN (p<0,001). Im Median vertrugen Patienten der Verumgruppe 4000 mg EN (~8 kleine EN) unter der Provokation nach OIT wohingegen Patienten der Placebogruppe nur 80 mg EN (~1/6 kleine EN) vertrugen (p<0,001). Fast die Hälfte der Patienten der Verumgruppe (41,9%) tolerierten die Höchstdosis von 18 g EN unter Provokation („komplette Desensibilisierung“). Es zeigte sich ein vergleichbares Sicherheitsprofil unter Verum- und Placebo-OIT in Bezug auf objektive Nebenwirkungen. Unter Verum-OIT kam es jedoch signifikant häufiger zu subjektiven Nebenwirkungen wie oralem Juckreiz oder Bauchschmerzen im Vergleich zu Placebo (3,7% der Verum-OIT-Gaben vs. 0,5% der Placebo-OIT-Gaben, p<0,001). Drei Kinder der Verumgruppe (9,7%) und sieben Kinder der Placebogruppe (22,6%) beendeten die Studie vorzeitig, je zwei Patienten beider Gruppen aufgrund von Nebenwirkungen. Im Gegensatz zu Placebo, zeigten sich unter Verum-OIT signifikante immunologische Veränderungen. So kam es zu einer Abnahme des EN-spezifischen Quaddeldurchmessers im Hautpricktest, einem Anstieg der EN-spezifischen IgG4-Werte im Serum sowie zu einer verminderten EN-spezifischen Zytokinsekretion, insbesondere der Th2-spezifischen Zytokine IL-4 und IL-5. Hinsichtlich der EN-spezifischen IgE-Werte sowie der EN-spezifischen Basophilenaktivierung zeigten sich hingegen keine Veränderungen unter OIT. Die Lebensqualität von Kindern der Verumgruppe war nach OIT signifikant verbessert, jedoch nicht bei Kindern der Placebogruppe. Während der OIT wurde die Therapie von fast allen Kindern (82%) und Müttern (82%) als positiv bewertet (= niedrige Therapiebelastung).
Diskussion: Die EN-OIT führte bei einem Großteil der EN-allergischen Kinder zu einer Desensibilisierung und einer deutlich erhöhten Reaktionsschwelle auf EN. Somit sind die Kinder im Alltag vor akzidentellen Reaktionen auf EN geschützt, was die Lebensqualität der Kinder deutlich verbessert. Unter den kontrollierten Studienbedingungen zeigte sich ein akzeptables Sicherheitsprofil, mit vorrangig milder Symptomatik. Die klinische Desensibilisierung ging mit Veränderungen auf immunologischer Ebene einher. Langzeitstudien zur EN-OIT müssen jedoch abgewartet werden, um die klinische und immunologische Wirksamkeit hinsichtlich einer möglichen langfristigen oralen Toleranzinduktion sowie die Sicherheit unter langfristiger OIT zu untersuchen, bevor das Therapiekonzept in die Praxis übertragen werden kann.
Um den zunehmenden Diebstahl digitaler Identitäten zu bekämpfen, gibt es bereits mehr als ein Dutzend Technologien. Sie sind, vor allem bei der Authentifizierung per Passwort, mit spezifischen Nachteilen behaftet, haben andererseits aber auch jeweils besondere Vorteile. Wie solche Kommunikationsstandards und -Protokolle wirkungsvoll miteinander kombiniert werden können, um dadurch mehr Sicherheit zu erreichen, haben die Autoren dieser Studie analysiert. Sie sprechen sich für neuartige Identitätsmanagement-Systeme aus, die sich flexibel auf verschiedene Rollen eines einzelnen Nutzers einstellen können und bequemer zu nutzen sind als bisherige Verfahren. Als ersten Schritt auf dem Weg hin zu einer solchen Identitätsmanagement-Plattform beschreiben sie die Möglichkeiten einer Analyse, die sich auf das individuelle Verhalten eines Nutzers oder einer Sache stützt.
Ausgewertet werden dabei Sensordaten mobiler Geräte, welche die Nutzer häufig bei sich tragen und umfassend einsetzen, also z.B. internetfähige Mobiltelefone, Fitness-Tracker und Smart Watches. Die Wissenschaftler beschreiben, wie solche Kleincomputer allein z.B. anhand der Analyse von Bewegungsmustern, Positionsund Netzverbindungsdaten kontinuierlich ein „Vertrauens-Niveau“ errechnen können. Mit diesem ermittelten „Trust Level“ kann jedes Gerät ständig die Wahrscheinlichkeit angeben, mit der sein aktueller Benutzer auch der tatsächliche Besitzer ist, dessen typische Verhaltensmuster es genauestens „kennt“.
Wenn der aktuelle Wert des Vertrauens-Niveaus (nicht aber die biometrischen Einzeldaten) an eine externe Instanz wie einen Identitätsprovider übermittelt wird, kann dieser das Trust Level allen Diensten bereitstellen, welche der Anwender nutzt und darüber informieren will. Jeder Dienst ist in der Lage, selbst festzulegen, von welchem Vertrauens-Niveau an er einen Nutzer als authentifiziert ansieht. Erfährt er von einem unter das Limit gesunkenen Trust Level, kann der Identitätsprovider seine Nutzung und die anderer Services verweigern.
Die besonderen Vorteile dieses Identitätsmanagement-Ansatzes liegen darin, dass er keine spezifische und teure Hardware benötigt, um spezifische Daten auszuwerten, sondern lediglich Smartphones und so genannte Wearables. Selbst Dinge wie Maschinen, die Daten über ihr eigenes Verhalten per Sensor-Chip ins Internet funken, können einbezogen werden. Die Daten werden kontinuierlich im Hintergrund erhoben, ohne dass sich jemand darum kümmern muss. Sie sind nur für die Berechnung eines Wahrscheinlichkeits-Messwerts von Belang und verlassen niemals das Gerät. Meldet sich ein Internetnutzer bei einem Dienst an, muss er sich nicht zunächst an ein vorher festgelegtes Geheimnis – z.B. ein Passwort – erinnern, sondern braucht nur die Weitergabe seines aktuellen Vertrauens-Wertes mit einem „OK“ freizugeben.
Ändert sich das Nutzungsverhalten – etwa durch andere Bewegungen oder andere Orte des Einloggens ins Internet als die üblichen – wird dies schnell erkannt. Unbefugten kann dann sofort der Zugang zum Smartphone oder zu Internetdiensten gesperrt werden. Künftig kann die Auswertung von Verhaltens-Faktoren noch erweitert werden, indem z.B. Routinen an Werktagen, an Wochenenden oder im Urlaub erfasst werden. Der Vergleich mit den live erhobenen Daten zeigt dann an, ob das Verhalten in das übliche Muster passt, der Benutzer also mit höchster Wahrscheinlichkeit auch der ausgewiesene Besitzer des Geräts ist.
Über die Techniken des Managements digitaler Identitäten und die damit verbundenen Herausforderungen gibt diese Studie einen umfassenden Überblick. Sie beschreibt zunächst, welche Arten von Angriffen es gibt, durch die digitale Identitäten gestohlen werden können. Sodann werden die unterschiedlichen Verfahren von Identitätsnachweisen vorgestellt. Schließlich liefert die Studie noch eine zusammenfassende Übersicht über die 15 wichtigsten Protokolle und technischen Standards für die Kommunikation zwischen den drei beteiligten Akteuren: Service Provider/Dienstanbieter, Identitätsprovider und Nutzer. Abschließend wird aktuelle Forschung des Hasso-Plattner-Instituts zum Identitätsmanagement vorgestellt.
In Vorbereitung zur Teilnahme am Times Higher Education Ranking hat die Universität Potsdam das Publikationsaufkommen im Rahmen einer Output-Analyse gemessen. Es stellte sich heraus, dass die Angabe der Affiliation, welche die Wissenschaftlerinnen und Wissenschaftler tätigen, eine wichtige Stellschraube zur Ermittlung der Grundzahl ist. Der vorliegende Artikel spiegelt die herausfordernde Ausgangssituation wider.
Der technologische Wandel stellt Organisationen vor die Herausforderung, Innovationen möglichst schnell produktiv zu nutzen und damit einen Wettbewerbsvorteil zu erzielen. Der Erfolg der Technologieeinführung hängt stark mit der Schaffung von Akzeptanz bei den Mitarbeitern zusammen. Bestehende Ansätze wie die Diffusionstheorie (Rogers, 2003) oder das Technology Acceptance Model (Davis, 1989; Venkatesh und Davis, 1996; Venkatesh und Davis, 2000; Venkatesh, Morris u. a., 2003) widmen sich dem Organisationskontext jedoch nur am Rande. Ihre Modelle zielen auf die Übernahme einer Technologie in freier Entscheidung und im Marktkontext ab. Weiterhin beleuchten sie den Widerstand gegen Neuerungen nicht, welcher sich bei der verpflichtenden Übernahme bilden kann. Zur Untersuchung der Technologieeinführung und von Akzeptanzbildungsprozessen in Organisationen sind sie daher nur begrenzt nutzbar.
Das Ziel dieser Arbeit ist es daher, den spezifischen Einfluss des Kontextes Organisation auf die Akzeptanz und das Nutzungsverhalten herauszuarbeiten. Konkreter soll die Forschungsfrage geklärt werden, welchen Einfluss unterschiedliche Organisationstypen auf die Akzeptanz- und Nutzungsdynamik innerhalb von Organisationen haben. Hierfür wird die Erweiterung und Synthese bestehender Modelle der Akzeptanzforschung um organisationsspezifische Attribute vorgenommen. Das resultierende Modell erfasst die dynamische Entwicklung innerhalb der Organisation und ermöglicht damit die Beobachtung des Wandels. Die Funktionsweise des entwickelten Modells soll in einem Simulationsexperiment demonstriert und die Wirkung unterschiedlicher Organisationsformen verdeutlicht werden.
Das Modell vereint daher zwei Perspektiven: Die personale Perspektive fasst Akzeptanz als kognitiv-psychischen Prozess auf individueller Ebene. Dieser basiert auf den Kalkülen und Entscheidungen einzelner Personen. Zentral sind hierfür die Beiträge der Diffusionstheorie (Rogers, 2003) sowie das Technology Acceptance Model in seinen diversen Weiterentwicklungen und Veränderungen (Davis, 1989; Venkatesh und Davis, 1996; Venkatesh und Davis, 2000; Venkatesh, Morris u. a., 2003). Individuelle Faktoren aus unterschiedlichen Fit-Theorien (Goodhue und Thompson, 1995; Floyd, 1986; Liu, Lee und Chen, 2011; Parkes, 2013) werden genutzt, um diese Modelle anzureichern. Neben der Entwicklung
einer positiven, förderlichen Einstellung muss jedoch auch die Ablehnung und das offene Opponieren gegen die Innovation berücksichtigt werden (Patsiotis, Hughes und Webber, 2012).
Die organisatorische Perspektive hingegen sieht Akzeptanzentscheidungen eingebettet in den sozialen Kontext der Organisation. Die gegenseitige Beeinflussung basiert auf der Beobachtung der Umgebung und der Internalisierung sozialen Drucks. Dem steht in Organisationen die intendierte Beeinflussung in Form von Steuerung gegenüber. Beide Vorgänge formen das Akzeptanz- oder das Nutzungsverhalten der Mitarbeiter. Ausgehend von einem systemtheoretischen Organisationsbegriff werden unterschiedliche Steuerungsmedien (Luhmann, 1997; Fischer, 2009) vorgestellt. Diese können durch Steuerungsakteure
(Change Agents, Management) intendiert eingesetzt werden, um den Akzeptanz- und Nutzungsprozess über Interventionen zu gestalten.
Die Wirkung der Medien unterscheidet sich in verschiedenen Organisationstypen. Zur Analyse unterschiedlicher Organisationstypen werden die Konfigurationen nach Mintzberg (1979) herangezogen. Diese zeichnen sich durch unterschiedliche Koordinationsmechanismen aus, welche wiederum auf dem Einsatz von Steuerungsmedien beruhen.
Die Demonstration der Funktionsweise und Analysemöglichkeiten des entwickelten Modells erfolgt anhand eines Simulationsexperiments mittels der Simulationsplattform AnyLogic. Das Gültigkeitsspektrum wird anhand einer Sensitivitätsanalyse geprüft.
In der Simulation lassen sich spezifische Muster der Nutzung und Akzeptanzentwicklung nachweisen. Die Akzeptanz ist durch ein initiales Absinken und ein anschließendes gedämpftes Wachstum gekennzeichnet. Die Nutzung wird in der Organisation hingegen schnell durchgesetzt und verharrt dann auf einem stabilen Niveau. Für die Organisationstypen konnten unterschiedliche Effekte beobachtet werden. So eignet sich die bürokratische Steuerungsform zur Nutzungserhöhung, schafft es jedoch nicht, die Akzeptanz zu steigern. Organisationen, welche eher auf gegenseitige Abstimmung zur Koordination ausgelegt sind, erhöhen die Akzeptanz, jedoch nicht die Nutzung. Weiterhin ist die Entwicklung der Akzeptanz in diesem Organisationstyp sehr unsicher und weist einen hohen Schwankungsbereich auf.
Während des Praxissemesters sammeln Studierende ihre ersten längeren praktischen Erfahrungen als Lehrkraft. Es ist davon auszugehen, dass diese ersten Erfahrungen bereits prägend für die spätere Lehrtätigkeit sein können. Sei es als berufliche Orientierung oder als kleiner Schritt zur Herausbildung der eigenen Lehrpersönlichkeit. Herr Ingmar Thews widmet sich mit seiner Arbeit der wichtigen Frage, inwieweit Studierende Schule als Raum für „expansives“ oder „defensives“ Lernen erleben. Dabei führt er nach der subjektwissenschaftlichen Theorie von Klaus Holzkamp eine Inhaltsanalyse von Tonaufnahmen, welche während des Praxissemesters entstanden sind, durch. Die Ergebnisse bieten einen tieferen Einblick, wie Studierende Schule während ihrer Praxisphasen erleben. Dass defensives Lernen immer noch einen großen Teil der Erfahrungen der Studierenden ausmacht und zum Alltag von Schule gehört, ist eine Erkenntnis, die einen nachdenklich stimmen kann. Mit dem Seminarkonzept „Expansives Lernen fördern durch eine prozessorientierte Didaktik“ hat Herr Thews einen Rahmen geschaffen, der Studierenden die Möglichkeit gibt, über ihre negativen und positiven Erfahrungen zu sprechen und gleichzeitig über die Gestaltung expansiver Lernräume nachzudenken. Im Sinne einer prozessorientierten Didaktik würden wir uns freuen, wenn die Handreichung von Herrn Thews vielfältige Verwendung und Erweiterung in anderen Seminaren des Praxissemesters findet.
Age of Empires 3
(2017)
Laudatio
(2017)
Im Jahr 1836 traf der US-amerikanische Geistliche und Sammler historischer Dokumente William B. Sprague (1795–1876) während seines zweiten Europabesuches auch mit Alexander von Humboldt in Berlin zusammen. Im Verlaufe des Gespräches zeigte sich Humboldt mit den politischen Entwicklungen in den Vereinigten Staaten bestens vertraut. Er kritisierte das Sklavensystem, räumte aber auch ein, dass er viele Aspekte der amerikanischen Demokratie bewunderte.
Das Thema der vorliegenden Arbeit ist die semantische Suche im Kontext heutiger Informationsmanagementsysteme. Zu diesen Systemen zählen Intranets, Web 3.0-Anwendungen sowie viele Webportale, die Informationen in heterogenen Formaten und Strukturen beinhalten. Auf diesen befinden sich einerseits Daten in strukturierter Form und andererseits Dokumente, die inhaltlich mit diesen Daten in Beziehung stehen. Diese Dokumente sind jedoch in der Regel nur teilweise strukturiert oder vollständig unstrukturiert. So beschreiben beispielsweise Reiseportale durch strukturierte Daten den Zeitraum, das Reiseziel, den Preis einer Reise und geben in unstrukturierter Form weitere Informationen, wie Beschreibungen zum Hotel, Zielort, Ausflugsziele an.
Der Fokus heutiger semantischer Suchmaschinen liegt auf dem Finden von Wissen entweder in strukturierter Form, auch Faktensuche genannt, oder in semi- bzw. unstrukturierter Form, was üblicherweise als semantische Dokumentensuche bezeichnet wird. Einige wenige Suchmaschinen versuchen die Lücke zwischen diesen beiden Ansätzen zu schließen. Diese durchsuchen zwar gleichzeitig strukturierte sowie unstrukturierte Daten, werten diese jedoch entweder weitgehend voneinander unabhängig aus oder schränken die Suchmöglichkeiten stark ein, indem sie beispielsweise nur bestimmte Fragemuster unterstützen. Hierdurch werden die im System verfügbaren Informationen nicht ausgeschöpft und gleichzeitig unterbunden, dass Zusammenhänge zwischen einzelnen Inhalten der jeweiligen Informationssysteme und sich ergänzende Informationen den Benutzer erreichen.
Um diese Lücke zu schließen, wurde in der vorliegenden Arbeit ein neuer hybrider semantischer Suchansatz entwickelt und untersucht, der strukturierte und semi- bzw. unstrukturierte Inhalte während des gesamten Suchprozesses kombiniert. Durch diesen Ansatz werden nicht nur sowohl Fakten als auch Dokumente gefunden, es werden auch Zusammenhänge, die zwischen den unterschiedlich strukturierten Daten bestehen, in jeder Phase der Suche genutzt und fließen in die Suchergebnisse mit ein. Liegt die Antwort zu einer Suchanfrage nicht vollständig strukturiert, in Form von Fakten, oder unstrukturiert, in Form von Dokumenten vor, so liefert dieser Ansatz eine Kombination der beiden. Die Berücksichtigung von unterschiedlich Inhalten während des gesamten Suchprozesses stellt jedoch besondere Herausforderungen an die Suchmaschine. Diese muss in der Lage sein, Fakten und Dokumente in Abhängigkeit voneinander zu durchsuchen, sie zu kombinieren sowie die unterschiedlich strukturierten Ergebnisse in eine geeignete Rangordnung zu bringen. Weiterhin darf die Komplexität der Daten nicht an die Endnutzer weitergereicht werden. Die Darstellung der Inhalte muss vielmehr sowohl bei der Anfragestellung als auch bei der Darbietung der Ergebnisse verständlich und leicht interpretierbar sein.
Die zentrale Fragestellung der Arbeit ist, ob ein hybrider Ansatz auf einer vorgegebenen Datenbasis die Suchanfragen besser beantworten kann als die semantische Dokumentensuche und die Faktensuche für sich genommen, bzw. als eine Suche die diese Ansätze im Rahmen des Suchprozesses nicht kombiniert. Die durchgeführten Evaluierungen aus System- und aus Benutzersicht zeigen, dass die im Rahmen der Arbeit entwickelte hybride semantische Suchlösung durch die Kombination von strukturierten und unstrukturierten Inhalten im Suchprozess bessere Antworten liefert als die oben genannten Verfahren und somit Vorteile gegenüber bisherigen Ansätzen bietet. Eine Befragung von Benutzern macht deutlich, dass die hybride semantische Suche als verständlich empfunden und für heterogen strukturierte Datenmengen bevorzugt wird.
Ziel der vorliegenden Arbeit war die Synthese und Charakterisierung von anisotropen Goldnanopartikeln in einer geeigneten Polyelektrolyt-modifizierten Templatphase. Der Mittelpunkt bildet dabei die Auswahl einer geeigneten Templatphase, zur Synthese von einheitlichen und reproduzierbaren anisotropen Goldnanopartikeln mit den daraus resultierenden besonderen Eigenschaften. Bei der Synthese der anisotropen Goldnanopartikeln lag der Fokus in der Verwendung von Vesikeln als Templatphase, wobei hier der Einfluss unterschiedlicher strukturbildender Polymere (stark alternierende Maleamid-Copolymere PalH, PalPh, PalPhCarb und PalPhBisCarb mit verschiedener Konformation) und Tenside (SDS, AOT – anionische Tenside) bei verschiedenen Synthese- und Abtrennungsbedingungen untersucht werden sollte.
Im ersten Teil der Arbeit konnte gezeigt werden, dass PalPhBisCarb bei einem pH-Wert von 9 die Bedingungen eines Röhrenbildners für eine morphologische Transformation von einer vesikulären Phase in eine röhrenförmige Netzwerkstruktur erfüllt und somit als Templatphase zur formgesteuerten Bildung von Nanopartikeln genutzt werden kann.
Im zweiten Teil der Arbeit wurde dargelegt, dass die Templatphase PalPhBisCarb (pH-Wert von 9, Konzentration von 0,01 wt.%) mit AOT als Tensid und PL90G als Phospholipid (im Verhältnis 1:1) die effektivste Wahl einer Templatphase für die Bildung von anisotropen Strukturen in einem einstufigen Prozess darstellt. Bei einer konstanten Synthesetemperatur von 45 °C wurden die besten Ergebnisse bei einer Goldchloridkonzentration von 2 mM, einem Gold-Templat-Verhältnis von 3:1 und einer Synthesezeit von 30 Minuten erzielt. Ausbeute an anisotropen Strukturen lag bei 52 % (Anteil an dreieckigen Nanoplättchen von 19 %). Durch Erhöhung der Synthesetemperatur konnte die Ausbeute auf 56 % (29 %) erhöht werden.
Im dritten Teil konnte durch zeitabhängige Untersuchungen gezeigt werden, dass bei Vorhandensein von PalPhBisCarb die Bildung der energetisch nicht bevorzugten Plättchen-Strukturen bei Raumtemperatur initiiert wird und bei 45 °C ein Optimum annimmt.
Kintetische Untersuchungen haben gezeigt, dass die Bildung dreieckiger Nanoplättchen bei schrittweiser Zugabe der Goldchlorid-Präkursorlösung zur PalPhBisCarb enthaltenden Templatphase durch die Dosierrate der vesikulären Templatphase gesteuert werden kann. In umgekehrter Weise findet bei Zugabe der Templatphase zur Goldchlorid-Präkursorlösung bei 45 °C ein ähnlicher, kinetisch gesteuerter Prozess der Bildung von Nanodreiecken statt mit einer maximalen Ausbeute dreieckigen Nanoplättchen von 29 %.
Im letzten Kapitel erfolgten erste Versuche zur Abtrennung dreieckiger Nanoplättchen von den übrigen Geometrien der gemischten Nanopartikellösung mittels tensidinduzierter Verarmungsfällung. Bei Verwendung von AOT mit einer Konzentration von 0,015 M wurde eine Ausbeute an Nanoplättchen von 99 %, wovon 72 % dreieckiger Geometrien hatten, erreicht.
Die neoliberale Wende durchzieht seit den 1990er Jahren alle wesentlichen Bereiche der deutschen Gesellschaft, angefangen bei der Unternehmensführung über Fragen der kommunalen Selbstverwaltung sowie staatlicher Daseinsfürsorge bis hin zur schulischen Bildung. Insbesondere (gesellschafts-)kritische Wissenschaftler/innen beanstanden die hegemoniale Stellung neoliberaler Argumentationen. Ihre Kritik: Die neoliberale Logik wird aufgrund ihres „Common sense“-Charakters zu einer alternativlosen Wahrheit stilisiert.
Ziel des Buches ist es, in kritischer Haltung die (Un-)Sichtbarkeit neoliberaler Argumentationen in ausgewählten Schulbüchern sowie den Rahmenlehrplänen Geographie des Landes Brandenburg zu analysieren sowie das Ergebnis im Kontext einer historischen Rekonstruktion des Unterrichtsfaches zu deuten. Thematisch begrenzt sich die Analyse dabei auf stadtgeographische Fragestellungen. Letztlich wird der Versuch unternommen, ausgehend von einer politischen bildenden Geographie, einen unterrichtspraktischen Zugang zur Neoliberalisierung des Urbanen aufzuzeigen.
Studium nach Bologna
(2017)
Ziel des vorliegenden dritten Bandes der Potsdamer Beiträge zur Hochschulforschung ist es, ausgewählte Aspekte der Hochschuldebatte um Studium und Lehre zu beleuchten und mit empirischen Befunden zu vertiefen. Im Fokus stehen solche aktuellen Debatten wie die Gestaltung des Studieneingangs, die Erhöhung der Beschäftigungsbefähigung, die Qualität der Praktika sowie Probleme der Lehrerbildung. Dabei wird die Hochschuldebatte in Deutschland durch einschlägige Beiträge aus anderen, west- und osteuropäischen Ländern erweitert.
Die Reihe versteht sich als Forum verschiedener Akteure aus der Hochschulforschung, die die Diskussion zur Qualitätsentwicklung in Lehre und Studium mit ihren Impulsen aus Analysen und empirischen Ergebnissen bereichern sollen. Der Band richtet sich an alle, die sich für die Entwicklung an Hochschulen interessieren.
Alles auf (Studien)anfang!
(2017)
Lehrerbildung in Deutschland
(2017)
Das 10. Herbsttreffen Patholinguistik mit dem Schwerpunktthema »Panorama Patholinguistik: Sprachwissenschaft trifft Sprachtherapie« fand am 19.11.2016 in Potsdam statt. Das Herbsttreffen wird seit 2007 jährlich vom Verband für Patholinguistik e.V. (vpl) durchgeführt. Der vorliegende Tagungsband beinhaltet die vier Hauptvorträge zum Schwerpunktthema sowie Beiträge zu den Kurzvorträgen »Patholinguistik im Fokus« und der Posterpräsentationen zu weiteren Themen aus der sprachtherapeutischen Forschung und Praxis.
Diagnostik und Therapie von Lese-Rechtschreibschwierigkeiten in der integrativen Lerntherapie
(2017)
Für den Industrialisierungsprozess von Entwicklungs- und Schwellenländern haben ausländische Direktinvestitionen (ADI) eine wichtige Funktion. Sie können zum einen zu einer Erhöhung des industriellen Output des Ziellandes führen und zum anderen als Träger von technologischem Wissen fungieren. Neues Wissen kann den Empfängerländern der ADI durch Spillovereffekte und Technologietransfers ausländischer Tochterunternehmen zufließen. Diese Arbeit soll Antworten auf die Fragen geben, durch welche Mechanismen Spillovereffekte und Technologietransfers ausgelöst werden und wie Entwicklungs- und Schwellenländern diesen Wissenszufluss zur Beschleunigung ihres Industrialisierungsprozesses einsetzen können. Hierfür wird ein Konzept zur Förderung von Spillovereffekten entwickelt. Weiterhin wird ein theoretisches Modell entwickelt, in dem der Technologietransfer ausländischer Exportplattformen erstmals in Abhängigkeit des Anteils der Vorprodukte, die im Gastland nachgefragt werden, untersucht. In den Fallstudien Irland und Malaysia werden die Ergebnisse des theoretischen Modells sowie des entwickelten Konzepts illustriert.
Die Systematik der Umwelt
(2017)
Im Kontext gegenwärtiger, europaweiter Proteste und Mobilisierung gegen Gender und Gender Studies haben Sabine Hark und Paula-Irene Villa (2015) den Begriff des „Anti-Genderismus“ vorgeschlagen, um jene „Anti“-Haltung zu beschreiben, die sich gegen konstruktivistische, postessentialistische Auffassungen von Geschlecht wendet. Die Masterarbeit untersucht dieses empirische Phänomen, das in aktuellen Diskussionen um den Begriff Gender, Gender Studies, Gleichstellungsmaßnahmen oder etwa den Bildungsplanprotesten zur „sexuellen Vielfalt“ in Form von Delegitimierungsstrategien und spezifischen Argumentationsmustern auftritt, die hauptsächlich zum Ziel haben, den Begriff Gender zu diskreditieren sowie Gender Studies ihre Wissenschaftlichkeit abzusprechen. Bislang wurde der „Anti-Genderismus“ im Sammelband von Sabine Hark und Paula-Irene Villa (2015) in die Fachdiskussion eingeführt, jedoch noch nicht ausreichend untersucht. Umfassende empirische Analysen, die das Phänomen aus dezidiert soziologischer Perspektive betrachten, stehen noch aus; bisherige Untersuchungen konzentrieren sich auf die Erarbeitung von Definitionen und Merkmalen des „Anti-Genderismus“ sowie auf die Entkräftung anti-genderistischer Argumentationen. Hierbei stehen die heterogenen Akteursgruppen, wie zum Beispiel fundamentalchristliche Gruppen, antifeministische Männerrechtsbewegungen oder rechte Gruppierungen im Fokus, sowie spezifische Argumentationsmuster, wie zum Beispiel der Ideologie-Vorwurf, die im anti-genderistischen Diskus immer wieder aufgegriffen werden.
Das Phänomen „Anti-Genderismus“ wird in der Masterarbeit nicht nur über die spezifischen Argumentationsmuster und Akteursgruppen definiert, sondern es wird die strukturelle Logik der Artikulationsweise (Laclau) des „Anti-Genderismus“ in den Blick genommen, die Ähnlichkeiten zur populistischen Artikulation aufweist. So kann gezeigt werden, wie der Begriff Gender im politischen Protest des hier untersuchten empirischen Beispiels der „Demo für Alle“ durch Neudefinitionen und Bedeutungserweiterung zu einem strategischen Begriff wird, an und mit dem um Bedeutungen des Geschlechterverhältnisses gestritten wird und politische Forderungen aufgestellt werden. In dem aufgezeigten Analysezugang stehen weniger Delegitimierungsstrategien des „Anti-Genderismus“ im Fokus, sondern die Funktionsweise der Umdeutungen von Gender im politischen Protest.
Durch einen dezidiert soziologischen Analysezugang kann außerdem das Phänomen für geschlechtersoziologische Fragestellungen geöffnet werden: Welche Vorannahmen über das Geschlechterverhältnis und welche „gender beliefs“ (Goffman) können anhand „anti-genderistischer“ Äußerungen rekonstruiert werden? In welchen Deutungsrahmen wird der Begriff Gender im hier untersuchten politischen Protest gestellt? Hierzu werden acht Redebeiträge der „Demo für Alle“ von der Demonstration am 28.02.2015 in Stuttgart transkribiert und in einem sequenzanalytischen Verfahren und offenen Kodieren analysiert und ausgewertet.
Die Esche ist nicht nur als Weltenbaum Yggdrasil aus der germanischen Mythologie bekannt. Ihr Holz wird für Möbel, Parkett und Werkzeuge genutzt, und sie ist ein wichtiger Faktor für die Neuaufforstung. Doch die Esche ist vom Aussterben bedroht. Das Eschentriebsterben wird ausgelöst durch einen Pilz (Falsches Weißes Stengelbecherchen) und verursacht ein großflächiges Absterben von Altbeständen und jungen Bäumen in allen Teilen Deutschlands.
Diese umweltsoziologische Untersuchung geht der Frage nach, ob die Diskrepanz zwischen der gesellschaftlichen, ökonomischen und ökologischen Bedeutung dieser Baumgattung und ihrem möglichen Verlust zu gesellschaftlichen Diskussionsprozessen über die Esche und das Eschentriebsterben führt.
Anhand der Wissenssoziologischen Diskursanalyse und der Grounded Theory Method wird gezeigt, dass sich zwar Expertinnen und Experten einig sind, dass die Esche vermutlich aussterben wird, ihre gesellschaftliche Bedeutung jedoch nicht groß genug ist, sodass ihr Aussterben als hinreichend problematisch eingestuft wird und folglich politische Handlungskonsequenzen gefordert werden.
Der Arbeitskreis Militär und Gesellschaft in der Frühen Neuzeit e. V. wurde im Frühjahr 1995 gegründet. Er hat es sich zur Aufgabe gemacht, die Erforschung des Militärs im Rahmen der frühneuzeitlichen Geschichte zu befördern und zugleich das Bewusstsein der Frühneuzeit-HistorikerInnen für die Bedeutung des Militärs in all seinen Funktionen zu wecken. Das Militär steht somit als soziale Gruppe selbst im Mittelpunkt der Aktivitäten des Arbeitskreises, wird aber auch in seinen Wirkungen und Repräsentationen thematisiert. Ziel ist es, die Rolle des Militärs als Teil der frühneuzeitlichen Gesellschaft umfassend herauszuarbeiten und zu würdigen. Insofern versteht der AMG seine Arbeit nicht nur als Beitrag zur Militärgeschichte, sondern vor allem als Beitrag zur Geschichte der Frühen Neuzeit insgesamt.
Der Arbeitskreis bietet ein Diskussions- und Informationsforum durch die Organisation von Tagungen, die Herausgabe der Schriftenreihe ‚Herrschaft und soziale Systeme in der Frühen Neuzeit‘, die Zeitschrift ‚Militär und Gesellschaft in der Frühen Neuzeit‘ und die Mailingliste mil-fnz.
Die vorliegende Studie beschäftigt sich mit dem Berufseinstieg von Lehrpersonen und untersucht Zusammenhänge zwischen der Nutzung von Lerngelegenheiten, sozialer Kooperation, individuellen Determinanten und Kompetenzselbsteinschätzungen, die erstmalig in dieser Zusammenstellung überprüft worden sind.
Die Literaturrecherche machte deutlich, dass der Berufseinstieg eine besonders wichtige Phase für die berufliche Sozialisation darstellt. Die Nutzung von Lerngelegenheiten wurde empirisch noch nicht sehr oft untersucht vor allem nicht im Zusammenhang mit individuellen Determinanten und die Kooperation meist nur unter dem Fokus der Bedeutung für die Schule.
An der empirischen Untersuchung nahmen 223 berufseinsteigende Lehrkräfte aus dem Allgemeinen Pflichtschulbereich in Niederösterreich teil, die verpflichtend in den ersten beiden Dienstjahren Fortbildungen besuchen müssen. Diese Situation ist einzigartig in Österreich, da es nur in diesem Bundesland seit 2011 eine verpflichtend zu besuchende Berufseinstiegsphase gibt. Ab 2019 wird es in Österreich eine Induktionsphase für alle Lehrkräfte geben, die in den Beruf einsteigen.
Mit Hilfe von Strukturgleichungsmodellen wurden die Zusammenhänge untersucht und es zeigte sich, dass es diese in allen Bereichen gibt. Am Ende konnte ein neues Theoriemodell zur Nutzung von Lerngelegenheiten abgeleitet werden, das sich in Theorien zu professionellen Kompetenzentwicklung und zu Lernen in Aus-, Fortund Weiterbildung einordnen lässt.
Bürgerpartizipation
(2017)
Das in den USA bereits weit verbreitete Predictive Policing, die vorhersagende
Polizeiarbeit, entwickelt sich seit zwei bis drei Jahren auch auf dem deutschen
Sicherheitsmarkt sehr dynamisch. Unter Nutzung und Weiterentwicklung von
Geographischen Informationssystemen sowie raumbasierter Algorithmen und
Modellierungen werden für beliebige Orte die Auftrittswahrscheinlichkeiten von
Straftaten ermittelt. In der Praxis erhält damit die Polizei ortsbezogene Hinweise
für die strategische Planung ihrer Einsätze. Für die Humangeographie und die
Geoinformatik ist Predictive Policing also ein äußerst interessantes Beobachtungsund
Betätigungsfeld, das in diesem Beitrag unter die Lupe genommen werden soll.
Dabei wird es weniger um die GIS-technischen und mathematisch-statistischen
Hintergründe des Predictive Policing gehen. Vielmehr sollen einige Gedanken
geäußert werden, weshalb sich dieses Instrument auf dem Sicherheitsmarkt etablieren
konnte und über welche Potenziale und Grenzen des Predictive Policing
von Vertreter(inne)n aus Politik, Polizei, Kriminalsoziologie und Geographie diskutiert
wird.
Das Bildungsgesetz der spanischen Regierung aus dem Jahre 2013 (sp. LOMCE) gilt als Todesstoß für künstlerische Fächer an allgemein bildenden Schulen: Erst 1990 als Pflichtfach eingeführt, wird Musik nun nur noch als Wahlfach angeboten. Auch die Musiklehrerausbildung an den Hochschulen verzeichnet massive Einbußen. Besonders irritierend daran ist, dass die betroffenen Universitätsgremien zu dieser politischen Entscheidung nicht gehört wurden. Damit verschwindet in Spanien das Studienfach Lehramt Musik je nach Universität nach nicht einmal 18 bis 20 Jahren aus dem Studienangebot.
Inhalt:
-Ulrich Päßler: Plantae des États-Unis Rediscovered Pages from Alexander von Humboldt’s United States Diary
-Ottmar Ette: Texto-isla y escritura archipiélica: „Isle de Cube. Antilles en général“ de Alexander von Humboldt
-Thomas Heyd: Alexander von Humboldt y la unidad de la naturaleza
-Cettina Rapisarda: Lava memoriae deodati dolomieu Alexander von Humboldts Gesteinsstudien in Neapel
-Ingo Schwarz: Fahndung nach geraubtem Gold und Silber – 1839
-Ulrich Stottmeister: Umweltgedanken zu Alexander von Humboldt
-Günter Hoppe: Ein Museumsdiebstahl vor 144 Jahren
Musik in der Sozialen Arbeit
(2017)
Im „Schleier der Nacht“
(2017)
Der Forschungskreis Vereinte Nationen veranstaltete am 25. Juni 2016 seine dreizehnte Konferenz in Kooperation mit dem „Forum internationale Ordnung“ des Auswärtigen Amtes. Die Potsdamer UNO-Konferenzen stellen in ihrem Programm traditionell eine Verbindung von Wissenschaft und Praxis her unter Beteiligung unterschiedlicher Disziplinen.
Die Konferenz 2016 widmete sich dem Thema „Die Rolle der Vereinten Nationen in der multilateralen Entwicklungszusammenarbeit“.
Entwicklung als wichtiges Ziel der Vereinten Nationen und ihrer Mitgliedstaaten ist auch für andere Handlungs- und Politikfelder wichtig. Bilanz und Ausblick, die auf der Konferenz unternommen wurden, betrafen deshalb nicht nur die Entwicklungspolitik im eigentlichen Sinne – hier standen die 2015 beschlossenen Nachhaltigkeitsziele (SDGs) zur Debatte –, sondern bezogen auch umweltpolitische und menschenrechtliche Aspekte mit ein.
Die Referate zum Thema Entwicklung wurden eingerahmt von zwei Vorträgen zu aktuellen UN-politischen Fragen: der Wahl des neuen Generalsekretärs der Vereinten Nationen in New York nach einem reformierten Wahlverfahren, das mehr Transparenz und für UN-Mitgliedstaaten und NGOs mehr Beteiligungsmöglichkeiten bietet, und die Neuorganisation innerhalb des Auswärtigen Amtes, was die Vereinten Nationen betrifft.
Eine/r für sieben Milliarden
(2017)
Im Sinne des Refinements von Tierversuchen sollen alle Bedingungen während der Zucht, der Haltung und des Transports von zu Versuchszwecken gehaltenen Tieren und alle Methoden während des Versuchs so verbessert werden, dass die verwendeten Tiere ein minimales Maß an potentiellem Distress, Schmerzen oder Leiden erfahren. Zudem soll ihr Wohlbefinden durch die Möglichkeit des Auslebens speziesspezifischer Verhaltensweisen und die Anwendung tierschonender Verfahren maximal gefördert werden. Zur Etablierung von Grundsätzen des Refinements sind grundlegende Kenntnisse über die physiologischen Bedürfnisse und Verhaltensansprüche der jeweiligen Spezies unabdingbar. Die Experimentatoren sollten das Normalverhalten der Tiere kennen, um potentielle Verhaltensabweichungen, wie Stereotypien, zu verstehen und interpretieren zu können. Standardisierte Haltungsbedingungen von zu Versuchszwecken gehaltenen Mäusen weichen in diversen Aspekten von der natürlichen Umgebung ab und erfordern eine gewisse Adaptation. Ist ein Tier über einen längeren Zeitraum unfähig, sich an die gegebenen Umstände anzupassen, können abnormale Verhaltensweisen, wie Stereotypien auftreten. Stereotypien werden definiert als Abweichungen vom Normalverhalten, die repetitiv und ohne Abweichungen im Ablauf ausgeführt werden, scheinbar keiner Funktion dienen und der konkreten Umweltsituation nicht immer entsprechen.
Bisher war unklar, in welchem Ausmaß stereotypes Verhalten den metabolischen Phänotyp eines Individuums beeinflusst. Ziel dieser Arbeit war es daher, das stereotype Verhalten der FVB/NJ-Maus erstmals detailliert zu charakterisieren, systematisch zusammenzutragen, welche metabolischen Konsequenzen dieses Verhalten bedingt und wie sich diese auf das Wohlbefinden der Tiere und die Verwendung stereotyper Tiere in Studien mit tierexperimentellem Schwerpunkt auswirken.
Der Versuch begann mit der Charakterisierung der mütterlichen Fürsorge in der Parentalgeneration. Insgesamt wurden 35 Jungtiere der F1-Generation vom Absatz an, über einen Zeitraum von 11 Wochen einzeln gehalten, kontinuierlich beobachtet, bis zum Versuchsende wöchentlich Kotproben gesammelt und das Körpergewicht bestimmt. Zusätzlich erfolgten begleitende Untersuchungen wie Verhaltenstests und die Erfassung der physischen Aktivität und metabolischer Parameter. Anschließend wurden u.a. die zerebralen Serotonin- und Dopamingehalte, fäkale Glucocorticoidlevels, hepatisches Glykogen und muskuläre Glykogen- und Triglyceridlevels bestimmt.
Nahezu unabhängig von der mütterlichen Herkunft entwickelte sich bei mehr als der Hälfte der 35 Jungtiere in der F1-Generation stereotypes Verhalten. Diese Daten deuten darauf hin, dass es keine Anzeichen für das Erlernen oder eine direkte genetische Transmission stereotypen Verhaltens bei der FVB/NJ-Maus gibt. Über den gesamten Beobachtungszeitraum zeichneten sich die stereotypen FVB/NJ-Mäuse durch ein eingeschränktes Verhaltensrepertoire aus. Zu Gunsten der erhöhten Aktivität und des Ausübens stereotypen Verhaltens lebten sie insgesamt weniger andere Verhaltensweisen (Klettern, Graben, Nagen) aus. Darüber hinaus waren Stereotypien sowohl im 24-Stunden Open Field Test als auch in der Messeinrichtung der indirekten Tierkalorimetrie mit einer erhöhten Aktivität und Motilität assoziiert, während die circadiane Rhythmik nicht divergierte. Diese erhöhte körperliche Betätigung spiegelte sich in den niedrigeren Körpergewichtsentwicklungen der stereotypen Tiere wieder. Außerdem unterschieden sich die Körperfett- und Körpermuskelanteile.
Zusammenfassend lässt sich sagen, dass das Ausüben stereotypen Verhaltens zu Differenzen im metabolischen Phänotyp nicht-stereotyper und stereotyper FVB/NJ-Mäuse führt. Im Sinne der „Guten Wissenschaftlichen Praxis“ sollte das zentrale Ziel jedes Wissenschaftlers sein, aussagekräftige und reproduzierbare Daten hervorzubringen. Jedoch können keine validen Resultate von Tieren erzeugt werden, die in Aspekten variieren, die für den vorgesehenen Zweck der Studie nicht berücksichtigt wurden. Deshalb sollten nicht-stereotype und stereotype Individuen nicht innerhalb einer Versuchsgruppe randomisiert werden. Stereotype Tiere demzufolge von geplanten Studien auszuschließen, würde allerdings dem Gebot des zweiten R’s – der Reduction – widersprechen. Um Refinement zu garantieren, sollte der Fokus auf der maximal erreichbaren Prävention stereotypen Verhaltens liegen. Diverse Studien haben bereits gezeigt, dass die Anreicherung der Haltungsumwelt (environmental enrichment) zu einer Senkung der Prävalenz von Stereotypien bei Mäusen führt, dennoch kommen sie weiterhin vor. Daher sollte environmental enrichment zukünftig weniger ein „Kann“, sondern ein „Muss“ sein – oder vielmehr: der Goldstandard. Zudem würde eine profunde phänotypische Charakterisierung dazu beitragen, Mausstämme zu erkennen, die zu Stereotypien neigen und den für den spezifischen Zweck am besten geeigneten Mausstamm zu identifizieren, bevor ein Experiment geplant wird.
Ist TTIP alternativlos?
(2017)
Vom Handeln und Schmusen
(2017)
Bobrowski hatte nach dem Abitur die Absicht geäußert, Kunstgeschichte zu studieren, doch Krieg und Kriegsgefangenschaft vereitelten seinen Plan: Der Wehrmachtsangehörige wurde einzig im Winter 1941/1942 für ein Studiensemester an der Universität Berlin vom Kriegsdienst freigestellt. Nachhaltig beeindruckt war Bobrowski insbesondere von der Vorlesung „Deutsche Kunst der Goethezeit“ des Lehrstuhlinhabers Wilhelm Pinder. Trotz eines grundlegenden Einflusses ist indessen zu keinem Zeitpunkt Pinders ideologischer Hintergrund in Bobrowskis Gedichten manifest geworden. Nach der Rückkehr aus sowjetischer Gefangenschaft an Weihnachten 1949 war für den mittlerweile Zweiunddreißigjährigen an ein Studium nicht mehr zu denken. Die lebenslange intermediale Auseinandersetzung mit Werken der bildenden Kunst in seinem Œuvre kann indessen als Ausdruck seiner vielfältigen kulturgeschichtlichen Interessen und Neigungen interpretiert werden. Die Lebensphasen des Dichters korrelieren mit einer motivischen Entwicklung seiner Bildgedichte: Insbesondere half ihm die unantastbare Ästhetik bedeutender Kunstwerke, das Grauen der letzten Kriegsjahre und die Entbehrungen in sowjetischer Kriegsgefangenschaft zu überwinden. Didaktisch-moralische Zielsetzungen prägten zunächst die in den Jahren nach seiner Heimkehr entstandenen Gedichte, bevor sich Bobrowski inhaltlich und formal von diesem Gedichttypus zu lösen vermochte und vermehrt Gedichte zu schreiben begann, die kulturgeschichtliche Dimensionen annahmen und historische, mythologische, biblische und religionsphilosophische Themen in epochenübergreifende Zusammenhänge stellten. Die Gedichte über die Künstler Jawlensky und Calder berühren gleichzeitig kulturlandschaftliche Aspekte. Im letzten Lebensjahrzehnt interessierte sich Bobrowski zunehmend für die Kunst des 20. Jahrhunderts, während die moderne Architektur aus seinem Werk ausgeklammert blieb.
Architektur bildet eine Leitmotivik in Bobrowskis lyrischem Werk. Die übertragene Bedeutungsebene der in den Gedichten benannten sakralen und profanen Einzelbauten, aber auch der städtischen und dörflichen Ensembles sowie einzelner Gebäudeteile, verändert sich mehrfach im Laufe der Jahre. Ausgehend von traditionellen, paargereimten Jugendgedichten in jambischem Versmaß, in denen architektonische Elemente Teil einer Wahrnehmung bilden, die alles Außerästhetische ausblendet, wandelt sich der Sinngehalt der Sakral- und Profanbauten in Bobrowskis lyrischem Werk ein erstes Mal während den Kriegsjahren in Russland, die der Wehrmachtsangehörige am Ilmensee verbracht hat. In den damals entstandenen Oden zeugen die architektonischen Relikte von Leid, Tod und Zerstörung. Noch fehlt indessen der später so zentrale Gedanke der Schuld, der erst im Rückblick auf jene Zeit in den Gedichten, die nach der Rückkehr aus der Kriegsgefangenschaft bis zu Bobrowskis frühem Tod entstanden sind, thematisiert worden ist.
Gegen Ende des Kriegs und in den Jahren der Kriegsgefangenschaft besinnt sich Bobrowski erneut auf Heimatthemen, und die Architektur in seinen Gedichten wird zu einem ästhetisch überhöhten Fluchtpunkt seiner Sehnsucht nach Ostpreußen und dem Memelgebiet. In Kriegsgefangenschaft tritt erstmals der Aspekt des Sublimen in seinen Gedichten auf, und zwar sowohl bezogen auf die Malerei als auch auf die Architektur. Dieser Gedanke wird einerseits nach der Rückkehr nach Berlin in den Gedichten über die Architektur gotischer Kathedralen und das bauliche Erbe des Klassizismus weitergesponnen, doch steht in den damals entstandenen Gedichten das Kulturerbe Europas auch für historisches Unrecht und eine schwere, weit zurückreichende Schuld.
Von dieser auf den ganzen Kontinent bezogenen Kritik wendet sich Bobrowski in den nachfolgenden Jahren ab und konzentriert sich auf die Schuld der Deutschen gegenüber den Völkern Osteuropas. Damit erhält auch die Architektur in seinen Gedichten eine neue Bedeutung. Die Relikte der Ritterburgen des deutschen Ordens zeugen von der Herrschaft der mittelalterlichen Eroberer und verschmelzen dabei mit der Natur: Das Zeichenhafte der Architektur wird Teil der Landschaft. Im letzten Lebensjahrzehnt entstehen vermehrt Gedichte, die sich auf Parkanlagen und städtische Grünräume beziehen.
Der Dichter hat sich nicht nur auf persönliche Erfahrungen, sondern mitunter auch auf Bildquellen abstützt, ohne dass er das Original je gesehen hätte. Nur schwer zugänglich sind die Gedichte über Chagall und Gauguin ohne die Erkenntnis, dass sie sich auf Bildvorlagen in schmalen, populärwissenschaftlichen Büchern beziehen, die Bobrowski jeweils kurz vor der Niederschrift der entsprechenden Gedichte erworben hat. Anders verhält es sich mit jenen russischen Kirchen, die Eingang in sein lyrisches Werk gefunden haben. Bobrowski hat sie alle selbst im Krieg gesehen, und die meisten scheinen noch heute zu bestehen und können mit einiger Sicherheit identifiziert werden, wozu auch die Briefe des Dichters aus jener Zeit beitragen.
Seit Jahren ist der Mangel an Informatiklehrkräften bekannt und wird fachdidaktisch und politisch diskutiert. Aufgrund der geringen Anzahl von Studierenden mit dem Berufsziel Informatiklehrkraft ist eine Vergrößerung des Mangels vorhersehbar. Es stellt sich die Frage, warum so wenige Studierende sich für das Studienziel Lehramt Informatik entscheiden.
Das Ziel der vorliegenden Arbeit ist es, die Berufswahl von Informatiklehrkräften aus der individuellen, biographischen Perspektive der Beteiligten zu erforschen und dabei Faktoren zu identifizieren, die die Berufswahl Informatiklehrkraft positiv oder negativ beeinflussen. Der Forschungsschwerpunkt liegt auf der qualitativen empirischen Untersuchung des Berufswahlprozesses, während eine quantitative Befragung aktiver Informatiklehrkräfte zu berufswahlrelevanten Aspekten des Berufsbildes diese ergänzt. Das Forschungskonzept der qualitativen Untersuchung orientiert sich an der Grounded Theory. Es wurden angehende Informatiklehrkräfte zu ihrem Berufswahlprozess befragt, wobei die Daten durch mündliche Interviews, Gruppendiskussionen und schriftliche Berufswahlbiographien erhoben wurden. Die Datenauswertung orientiert sich zudem methodisch an der dokumentarischen Methode nach Ralf Bohnsack.
Die Ergebnisse der Untersuchung zeigen, dass der Berufswahlprozess von angehenden Informatiklehrkräften häufig mit Umwegen in Form von Studienzielwechseln verbunden ist. Neben dem eigenen Bild der Informatik und dem Informatikselbstkonzept kommt dem Informatikunterricht der eigenen Schulzeit eine wichtige Rolle in diesem Prozess zu. Von der Lehrerforschung werden die Unterrichtserfahrungen während der eigenen Schulzeit im später studierten Fach als entscheidend für die Fachwahl identifiziert. Dies bestätigt sich in den Berufswahlbiographien derjenigen angehenden Informatiklehrkräfte, die den Informatikunterricht ihrer eigenen Schulzeit positiv erinnern. Diese streben meist direkt in ihrem ersten Studium das Berufsziel Informatiklehrkraft an. Sie hatten zur Schulzeit ein positives Bild der Informatik und ein hohes Informatikselbstkonzept. Der Informatiklehrkraft ihrer Schulzeit bescheinigen sie oft eine berufliche Vorbildfunktion. Allerdings hatten die meisten der befragten angehenden Informatiklehrkräfte selbst keinen Informatikunterricht oder erinnern diesen negativ. Der Weg zum Studium Informatiklehrkraft führt bei diesen Befragten häufig über den Umweg von zunächst anderen Studienentscheidungen, meistens über ein Lehramtsstudium mit anderen Fächern oder ein Informatikstudium. Die Informatikstudierenden haben zum Zeitpunkt ihrer ersten Studienwahl ein positives Bild der Informatik und ein hohes Informatikselbstkonzept aber kein positives Berufsbild Informatiklehrkraft. Ihr Wechsel von einem Informatikstudium zum Studium mit dem Berufsziel Informatiklehrkraft wird in der Regel durch den Wunsch nach einer stärkeren sozialen Komponente im späteren Berufsalltag ausgelöst. Bei den Lehramtsstudierenden, die häufig zunächst ein niedriges Informatikselbstkonzept und/oder ein negatives Bild der Informatik haben, kann es zu einer Umorientierung hin zum Studienziel Informatiklehrkraft kommen, wenn diese Vorstellungen sich während des ersten Studiums – z. B. durch den Besuch von universitären Lehrveranstaltungen zu informatischen Inhalten – ändern. Die letztliche Entscheidung für den Beruf Informatiklehrkraft wird von denjenigen, die ihr Studienziel wechselten, mit Recht als durch Zufälle bestimmt empfunden.
Besonderung und Immanenz
(2017)
Zentrales Anliegen dieser Arbeit ist ein historisch-systematisches Verständnis der Philosophischen Anthropologie Helmuth Plessners im Zusammenhang mit zentralen theoretischen Entwicklungen der klassischen deutschen Philosophie. Im philosophischen Problemrahmen von Besonderung und Immanenz werden verschiedene historische Modelle untersucht. Die Arbeit geht von der Philosophie Immanuel Kants und Georg Friedrich Wilhelm Hegels aus und konzentriert sich auf das für die klassisch-deutsche Philosophie und ihre Überwindung der traditionellen Metaphysik entscheidende Methodenprinzip der Grenzbestimmung. Die Untersuchung beginnt im Kapitel Ausgangspunkt mit Kants Definition der Grenzbestimmung in der Kritik der reinen Vernunft als transzendental-philosophische Grundoperation und damit mit den Begriffen Grenze, Schranke und Zweckmäßigkeit. Anschließend wird Hegels grundlegende Antwort auf Kants Problem in der Dialektik der Grenze untersucht: In der Wissenschaft der Logik, der Logik des Seins, entwickelt Hegel ein erweitertes Konzept von Besonderung gegen Kant. Im Kern kritisiert Hegel Kants Begriff der Grenze im Sinne einer abstrakten Schranke, die einem begrifflich entwickelten Ansatz der Grenze als Funktionsbestimmung und damit der sich aus der Methode der Dialektik ergebenden Anforderung transzendentaler Individuation widerspricht. Die systematische zentrale Bedeutung der Dialektik der Grenze wird in der Begriffslogik im Abschnitt Teleologie weiter untersucht, da Grenze hier besonders mit dem Problem der Immanenz bzw. Vermittlung verknüpft ist. Im Gegensatz zu Kant entwickelt Hegel die Idee der Vermittlung begrifflich über den Begriff der Zweckmäßigkeit, beantwortet sie aber in der Wissenschaft der Logik innerhalb eines geschlossenen Modells. An diese Ergebnisse anschließend wird die Transformation des philosophischen Problemrahmens von Besonderung und Immanenz in der von Plessner im frühen 20. Jahrhundert gegründeten Philosophischen Anthropologie untersucht. Plessner greift in seinem Hauptwerk Die Stufen des Organischen und der Mensch auf diesen Rahmen quasi-transzendental zu und begründet eine moderne Natur- und Kulturphilosophie in einer performativ-philosophischen Wendung neu. Auf diese Weise kann Plessner Hegels geschlossenes philosophisches Modell von Besonderung und Immanenz aufbrechen und einen nicht-dualistischen dritten Weg moderner Philosophie jenseits von Neukantianismus und Existenzialismus vorzeichnen.
Das von Alexander von Humboldt ab 1804 oder später verfasste Manuskript „Isle de Cube. Antilles en général“ wurde erst kürzlich zum ersten Mal veröffentlicht. Es stellt die Grundlage für den Essai politique sur l‘île de Cuba (1826) dar, der als das „wichtigste liberale Manifest des 19. Jahrhunderts gegen die Sklaverei“ gilt. Ziel der Untersuchung ist, die textgenetische inhaltliche und stilistische Entwicklung vom Manuskript zur Publikation ansatzweise nachverfolgen zu können, um Rückschlüsse auf Humboldts Arbeitsweise und Strategien als Autor mit einem politischen Anliegen zu ziehen.
Aus dem Inhalt:
• Themenschwerpunkt: Menschenrechte und Wirtschaft
o Unternehmen als gesellschaftliche Akteure: Die unternehmerische Verantwortung für Menschenrechte zwischen privater und öffentlicher Sphäre
o “Land Grabbing” im Spannungsfeld zwischen Menschenrechtsschutz und Investitionsschutzrecht
• Bericht über die Tätigkeit des Menschenrechtsausschusses der Vereinten Nationen im Jahre 2016 – Teil I: Staatenberichte
Im kognitiven Vulnerabilitäts-Stress-Modell der Depression von A.T. Beck (1967, 1976) spielen dysfunktionale Einstellungen bei der Entstehung von Depression in Folge von erlebtem Stress eine zentrale Rolle. Diese Theorie prägt seit Jahrzehnten die ätiologische Erforschung der Depression, jedoch ist die Bedeutung dysfunktionaler Einstellungen im Prozess der Entstehung einer Depression insbesondere im Kindes- und Jugendalter nach wie vor unklar. Die vorliegende Arbeit widmet sich einigen in der bisherigen Forschung wenig behandelten Fragen. Diese betreffen u. a. die Möglichkeit nichtlinearer Effekte dysfunktionaler Einstellungen, Auswirkungen einer Stichprobenselektion, Entwicklungseffekte sowie die Spezifität etwaiger Zusammenhänge für eine depressive Symptomatik.
Zur Beantwortung dieser Fragen wurden Daten von zwei Messzeitpunkten der PIER-Studie, eines großangelegten Längsschnittprojekts über Entwicklungsrisiken im Kindes- und Jugendalter, genutzt. Kinder und Jugendliche im Alter von 9 bis 18 Jahren berichteten zweimal im Abstand von ca. 20 Monaten im Selbstberichtsverfahren über ihre dysfunktionalen Einstellungen, Symptome aus verschiedenen Störungsbereichen sowie über eingetretene Lebensereignisse.
Die Ergebnisse liefern Evidenz für ein Schwellenmodell, in dem dysfunktionale Einstellungen unabhängig von Alter und Geschlecht nur im höheren Ausprägungsbereich eine Wirkung als Vulnerabilitätsfaktor zeigen, während im niedrigen Ausprägungsbereich keine Zusammenhänge zur späteren Depressivität bestehen. Eine Wirkung als Vulnerabilitätsfaktor war zudem nur in der Subgruppe der anfänglich weitgehend symptomfreien Kinder und Jugendlichen zu beobachten. Das Schwellenmodell erwies sich als spezifisch für eine depressive Symptomatik, es zeigten sich jedoch auch (teilweise ebenfalls nichtlineare) Effekte dysfunktionaler Einstellungen auf die Entwicklung von Essstörungssymptomen und aggressivem Verhalten. Bei 9- bis 13-jährigen Jungen standen dysfunktionale Einstellungen zudem in Zusammenhang mit einer Tendenz, Stress in Leistungskontexten herbeizuführen.
Zusammen mit den von Sahyazici-Knaak (2015) berichteten Ergebnissen aus der PIER-Studie weisen die Befunde darauf hin, dass dysfunktionale Einstellungen im Kindes- und Jugendalter – je nach betrachteter Subgruppe – Ursache, Symptom und Konsequenz der Depression darstellen können. Die in der vorliegenden Arbeit gezeigten nichtlinearen Effekte dysfunktionaler Einstellungen und die Effekte der Stichprobenselektion bieten eine zumindest teilweise Erklärung für die Heterogenität früherer Forschungsergebnisse. Insgesamt lassen sie auf komplexe – und nicht ausschließlich negative – Auswirkungen dysfunktionaler Einstellungen schließen. Für eine adäquate Beurteilung der „Dysfunktionalität“ der von A.T. Beck so betitelten Einstellungen erscheint daher eine Berücksichtigung der betrachteten Personengruppe, der absoluten Ausprägungen und der fraglichen Symptomgruppen geboten.
Die digitale Entwicklung durchdringt unser Bildungssystem, doch Schulen sind auf die Veränderungen kaum vorbereitet: Überforderte Lehrer/innen, infrastrukturell schwach ausgestattete Unterrichtsräume und unzureichend gewartete Computernetzwerke sind keine Seltenheit. Veraltete Hard- und Software erschweren digitale Bildung in Schulen eher, als dass sie diese ermöglichen: Ein zukunftssicherer Ansatz ist es, die Rechner weitgehend aus den Schulen zu entfernen und Bildungsinhalte in eine Cloud zu überführen.
Zeitgemäßer Unterricht benötigt moderne Technologie und eine zukunftsorientierte Infrastruktur. Eine Schul-Cloud (https://hpi.de/schul-cloud) kann dabei helfen, die digitale Transformation in Schulen zu meistern und den fächerübergreifenden Unterricht mit digitalen Inhalten zu bereichern. Den Schüler/innen und Lehrkräften kann sie viele Möglichkeiten eröffnen: einen einfachen Zugang zu neuesten, professionell gewarteten Anwendungen, die Vernetzung verschiedener Lernorte, Erleichterung von Unterrichtsvorbereitung und Differenzierung. Die Schul-Cloud bietet Flexibilität, fördert die schul- und fächerübergreifende Anwendbarkeit und schafft eine wichtige Voraussetzung für die gesellschaftliche Teilhabe und Mitgestaltung der digitalen Welt. Neben den technischen Komponenten werden im vorliegenden Bericht ausgewählte Dienste der Schul-Cloud exemplarisch beschrieben und weiterführende Schritte aufgezeigt.
Das in Zusammenarbeit mit zahlreichen Expertinnen und Experten am Hasso-Plattner-Institut (HPI) entwickelte und durch das Bundesministerium für Bildung und Forschung (BMBF) geförderte Konzept einer Schul-Cloud stellt eine wichtige Grundlage für die Einführung Cloud-basierter Strukturen und -Dienste im Bildungsbereich dar. Gemeinsam mit dem nationalen Excellence-Schulnetzwerk MINT-EC als Kooperationspartner startet ab sofort die Pilotphase. Aufgrund des modularen, skalierbaren Ansatzes der Schul-Cloud kommt dem infrastrukturellen Prototypen langfristig das Potential zu, auch über die begrenzte Anzahl an Pilotschulen hinaus bundesweit effizient eingesetzt zu werden.