Refine
Has Fulltext
- yes (144) (remove)
Year of publication
- 2017 (144) (remove)
Document Type
- Article (59)
- Doctoral Thesis (31)
- Monograph/Edited Volume (14)
- Part of Periodical (14)
- Postprint (12)
- Master's Thesis (8)
- Review (2)
- Bachelor Thesis (1)
- Conference Proceeding (1)
- Habilitation Thesis (1)
Language
- German (144) (remove)
Is part of the Bibliography
- yes (144) (remove)
Keywords
- Genisa (10)
- Geniza (10)
- Jewish Studies (10)
- Jüdische Studien (10)
- Philosophie (5)
- philosophy (5)
- Anthropologie (4)
- Längsschnittstudie (4)
- Mannheim Study of Children at Risk (4)
- Mannheimer Risikokinderstudie (4)
Institute
- Department Erziehungswissenschaft (17)
- Institut für Germanistik (12)
- Department Linguistik (11)
- Institut für Chemie (11)
- MenschenRechtsZentrum (11)
- Verband für Patholinguistik e. V. (vpl) (11)
- Vereinigung für Jüdische Studien e. V. (10)
- Humanwissenschaftliche Fakultät (7)
- Department Musik und Kunst (6)
- Institut für Philosophie (6)
- Institut für Umweltwissenschaften und Geographie (6)
- Department Psychologie (5)
- Referat für Presse- und Öffentlichkeitsarbeit (4)
- Sozialwissenschaften (4)
- Arbeitskreis Militär und Gesellschaft in der Frühen Neuzeit e. V. (3)
- Extern (3)
- Institut für Ernährungswissenschaft (3)
- Institut für Romanistik (3)
- Kommunalwissenschaftliches Institut (3)
- Wirtschaftswissenschaften (3)
- Department Sport- und Gesundheitswissenschaften (2)
- Hasso-Plattner-Institut für Digital Engineering gGmbH (2)
- Institut für Geowissenschaften (2)
- Institut für Physik und Astronomie (2)
- Dezernat 2: Studienangelegenheiten (1)
- Institut für Biochemie und Biologie (1)
- Institut für Informatik und Computational Science (1)
- Institut für Künste und Medien (1)
- Kanonistisches Institut e.V. (1)
- Lehreinheit für Wirtschafts-Arbeit-Technik (1)
- Mathematisch-Naturwissenschaftliche Fakultät (1)
- Universitätsbibliothek (1)
- Zentrale und wissenschaftliche Einrichtungen (1)
- Zentrum für Lehrerbildung und Bildungsforschung (ZeLB) (1)
- Zentrum für Qualitätsentwicklung in Lehre und Studium (ZfQ) (1)
- Öffentliches Recht (1)
„Sei es Dein Wille, Herr“
(2017)
„Könn’Se berlinern?“
(2017)
„Gelobt seist du, Ewiger!“
(2017)
‚Ma‘oz tsur jeshu‘ati‘
(2017)
«Dilettanten des Lebens»
(2017)
Die vorliegende Studie beschäftigt sich mit dem Berufseinstieg von Lehrpersonen und untersucht Zusammenhänge zwischen der Nutzung von Lerngelegenheiten, sozialer Kooperation, individuellen Determinanten und Kompetenzselbsteinschätzungen, die erstmalig in dieser Zusammenstellung überprüft worden sind.
Die Literaturrecherche machte deutlich, dass der Berufseinstieg eine besonders wichtige Phase für die berufliche Sozialisation darstellt. Die Nutzung von Lerngelegenheiten wurde empirisch noch nicht sehr oft untersucht vor allem nicht im Zusammenhang mit individuellen Determinanten und die Kooperation meist nur unter dem Fokus der Bedeutung für die Schule.
An der empirischen Untersuchung nahmen 223 berufseinsteigende Lehrkräfte aus dem Allgemeinen Pflichtschulbereich in Niederösterreich teil, die verpflichtend in den ersten beiden Dienstjahren Fortbildungen besuchen müssen. Diese Situation ist einzigartig in Österreich, da es nur in diesem Bundesland seit 2011 eine verpflichtend zu besuchende Berufseinstiegsphase gibt. Ab 2019 wird es in Österreich eine Induktionsphase für alle Lehrkräfte geben, die in den Beruf einsteigen.
Mit Hilfe von Strukturgleichungsmodellen wurden die Zusammenhänge untersucht und es zeigte sich, dass es diese in allen Bereichen gibt. Am Ende konnte ein neues Theoriemodell zur Nutzung von Lerngelegenheiten abgeleitet werden, das sich in Theorien zu professionellen Kompetenzentwicklung und zu Lernen in Aus-, Fortund Weiterbildung einordnen lässt.
The article presents first results of a pilot study on the syntactic changes in Polish as a language contact in Germany. On the base of the experimental data tests the study examines the syntactic changes in Polish of two diaspora-generations: the so called forgetters and the incomplete learners. The article focuses on the questions: how the situation of languages in contact influences the syntactic changes in the heritage language (Polish) and which status have those syntactic transferences. Other linguistic and sociolinguistic factors, capable to cause the language change in the situation of language contact, are also discussed in the article.
Theoretischer Hintergrund: Einflüsse von therapeutenorientiertem Kompetenz-Feedback in der Psychotherapieausbildung wurden bislang wenig untersucht.
Fragestellung: Wie gehen Ausbildungstherapeuten mit Feedback um? Welchen Einfluss hat ein regelmäßiges Kompetenz-Feedback auf die Qualität psychotherapeutischer Behandlungen (insbesondere Therapiesitzungen, therapeutische Beziehung, Person des Therapeuten, Supervision)?
Methode: Elf Therapeuten wurden mithilfe eines halbstrukturierten Interviewleitfadens befragt. Die Auswertung erfolgte mittels qualitativer Inhaltsanalyse nach Mayring (2015).
Ergebnisse: Das auf Basis der Interviews erstellte Kategoriensystem umfasste die Kategorien „Erwartungen an das Feedback“, „Wahrnehmung des Feedbacks“, „Verarbeitung von und Umgang mit Feedback“, „Folgen, Auswirkungen und Veränderungen durch Feedback“ sowie „Verbesserungswünsche“.
Schlussfolgerungen: Therapeuten streben eine Umsetzung des Feedbacks an, welches sich auf die Behandlung, die Supervision, die eigene Person und die therapeutische Beziehung auswirkt.
Kurz vor ihrem sechzigsten Geburtstag ist die europäische Union mit inneren und äußeren Herausforderungen konfrontiert und befindet sich in einer tiefen Krise. Am 1. März 2017 legte Kommissionspräsident Juncker das „Weißbuch über die Zukunft der Europäischen Union“ vor, in dem er verschiedene Szenarien darlegt und zur Diskussion über die anste-henden Entscheidungen einlädt. Diese Papier versteht sich als ein solcher Diskussionsbei-trag.
Im kognitiven Vulnerabilitäts-Stress-Modell der Depression von A.T. Beck (1967, 1976) spielen dysfunktionale Einstellungen bei der Entstehung von Depression in Folge von erlebtem Stress eine zentrale Rolle. Diese Theorie prägt seit Jahrzehnten die ätiologische Erforschung der Depression, jedoch ist die Bedeutung dysfunktionaler Einstellungen im Prozess der Entstehung einer Depression insbesondere im Kindes- und Jugendalter nach wie vor unklar. Die vorliegende Arbeit widmet sich einigen in der bisherigen Forschung wenig behandelten Fragen. Diese betreffen u. a. die Möglichkeit nichtlinearer Effekte dysfunktionaler Einstellungen, Auswirkungen einer Stichprobenselektion, Entwicklungseffekte sowie die Spezifität etwaiger Zusammenhänge für eine depressive Symptomatik.
Zur Beantwortung dieser Fragen wurden Daten von zwei Messzeitpunkten der PIER-Studie, eines großangelegten Längsschnittprojekts über Entwicklungsrisiken im Kindes- und Jugendalter, genutzt. Kinder und Jugendliche im Alter von 9 bis 18 Jahren berichteten zweimal im Abstand von ca. 20 Monaten im Selbstberichtsverfahren über ihre dysfunktionalen Einstellungen, Symptome aus verschiedenen Störungsbereichen sowie über eingetretene Lebensereignisse.
Die Ergebnisse liefern Evidenz für ein Schwellenmodell, in dem dysfunktionale Einstellungen unabhängig von Alter und Geschlecht nur im höheren Ausprägungsbereich eine Wirkung als Vulnerabilitätsfaktor zeigen, während im niedrigen Ausprägungsbereich keine Zusammenhänge zur späteren Depressivität bestehen. Eine Wirkung als Vulnerabilitätsfaktor war zudem nur in der Subgruppe der anfänglich weitgehend symptomfreien Kinder und Jugendlichen zu beobachten. Das Schwellenmodell erwies sich als spezifisch für eine depressive Symptomatik, es zeigten sich jedoch auch (teilweise ebenfalls nichtlineare) Effekte dysfunktionaler Einstellungen auf die Entwicklung von Essstörungssymptomen und aggressivem Verhalten. Bei 9- bis 13-jährigen Jungen standen dysfunktionale Einstellungen zudem in Zusammenhang mit einer Tendenz, Stress in Leistungskontexten herbeizuführen.
Zusammen mit den von Sahyazici-Knaak (2015) berichteten Ergebnissen aus der PIER-Studie weisen die Befunde darauf hin, dass dysfunktionale Einstellungen im Kindes- und Jugendalter – je nach betrachteter Subgruppe – Ursache, Symptom und Konsequenz der Depression darstellen können. Die in der vorliegenden Arbeit gezeigten nichtlinearen Effekte dysfunktionaler Einstellungen und die Effekte der Stichprobenselektion bieten eine zumindest teilweise Erklärung für die Heterogenität früherer Forschungsergebnisse. Insgesamt lassen sie auf komplexe – und nicht ausschließlich negative – Auswirkungen dysfunktionaler Einstellungen schließen. Für eine adäquate Beurteilung der „Dysfunktionalität“ der von A.T. Beck so betitelten Einstellungen erscheint daher eine Berücksichtigung der betrachteten Personengruppe, der absoluten Ausprägungen und der fraglichen Symptomgruppen geboten.
Die Arktis erwärmt sich schneller als der Rest der Erde. Die Auswirkungen manifestieren sich unter Anderem in einer verstärkten Erwärmung der arktischen Grenzschicht. Diese Arbeit befasst sich mit Wechselwirkungen zwischen synoptischen Zyklonen und der arktischen Atmosphäre auf lokalen bis überregionalen Skalen. Ausgangspunkt dafür sind Messdaten und Modellsimulationen für den Zeitraum der N-ICE2015 Expedition, die von Anfang Januar bis Ende Juni 2015 im arktischen Nordatlantiksektor stattgefunden hat.
Anhand von Radiosondenmessungen lassen sich Auswirkungen von synoptischen Zyklonen am deutlichsten im Winter erkennen, da sie durch die Advektion warmer und feuchter Luftmassen in die Arktis den Zustand der Atmosphäre von einem strahlungs-klaren in einen strahlungs-opaken ändern. Obwohl dieser scharfe Kontrast nur im Winter existiert, zeigt die Analyse, dass der integrierte Wasserdampf als Indikator für die Advektion von Luftmassen aus niedrigen Breiten in die Arktis auch im Frühjahr geeignet ist. Neben der Advektion von Luftmassen wird der Einfluss der Zyklonen auf die statische Stabilität charakterisiert. Beim Vergleich der N-ICE2015 Beobachtungen mit der SHEBA Kampagne (1997/1998), die über dickerem Eis stattfand, finden sich trotz der unterschiedlichen Meereisregime Ähnlichkeiten in der statischen Stabilität der Atmosphäre. Die beobachteten Differenzen in der Stabilität lassen sich auf Unterschiede in der synoptischen Aktivität zurückführen. Dies lässt vermuten, dass die dünnere Eisdecke auf saisonalen Zeitskalen nur einen geringen Einfluss auf die thermodynamische Struktur der arktischen Troposphäre besitzt, solange eine dicke Schneeschicht sie bedeckt. Ein weiterer Vergleich mit den parallel zur N-ICE2015 Kampagne gestarteten Radiosonden der AWIPEV Station in Ny-Åesund, Spitzbergen, macht deutlich, dass die synoptischen Zyklonen oberhalb der Orographie auf saisonalen Zeitskalen das Wettergeschehen bestimmen.
Des Weiteren werden für Februar 2015 die Auswirkungen von in der Vertikalen variiertem Nudging auf die Entwicklung der Zyklonen am Beispiel des hydrostatischen regionalen Klimamodells HIRHAM5 untersucht. Es zeigt sich, dass die Unterschiede zwischen den acht Modellsimulationen mit abnehmender Anzahl der genudgten Level zunehmen. Die größten Differenzen resultieren vornehmlich aus dem zeitlichen Versatz der Entwicklung synoptischer Zyklonen. Zur Korrektur des Zeitversatzes der Zykloneninitiierung genügt es bereits, Nudging in den unterstem 250 m der Troposphäre anzuwenden. Daneben findet sich zwischen den genudgten HIRHAM5-Simulation und den in situ Messungen der gleiche positive Temperaturbias, den auch ERA-Interim besitzt. Das freie HIRHAM hingegen reproduziert das positive Ende der N-ICE2015 Temperaturverteilung gut, besitzt aber einen starken negativen Bias, der sehr wahrscheinlich aus einer Unterschätzung des Feuchtegehalts resultiert. An Beispiel einer Zyklone wird gezeigt, dass Nudging Einfluss auf die Lage der Höhentiefs besitzt, die ihrerseits die Zyklonenentwicklung am Boden beeinflussen. Im Weiteren wird mittels eines für kleine Ensemblegrößen geeigneten Varianzmaßes eine statistische Einschätzung der Wirkung des Nudgings auf die Vertikale getroffen. Es wird festgestellt, dass die Ähnlichkeit der Modellsimulationen in der unteren Troposphäre generell höher ist als darüber und in 500 hPa ein lokales Minimum besitzt.
Im letzten Teil der Analyse wird die Wechselwirkung der oberen und unteren Stratosphäre anhand zuvor betrachteter Zyklonen mit Daten der ERA-Interim Reanalyse untersucht. Lage und Ausrichtung des Polarwirbels erzeugten ab Anfang Februar 2015 eine ungewöhnlich große Meridionalkomponente des Tropopausenjets, die Zugbahnen in die zentrale Arktis begünstigte. Am Beispiel einer Zyklone wird die Übereinstimmung der synoptischen Entwicklung mit den theoretischen Annahmen über den abwärts gerichteten Einfluss der Stratosphäre auf die Troposphäre hervorgehoben. Dabei spielt die nicht-lineare Wechselwirkung zwischen der Orographie Grönlands, einer Intrusion stratosphärischer Luft in die Troposphäre sowie einer in Richtung Arktis propagierender Rossby-Welle eine tragende Rolle. Als Indikator dieser Wechselwirkung werden horizontale Signaturen aus abwechselnd aufsteigender und absinkender Luft innerhalb der Troposphäre identifiziert.
Wahrnehmung und Heterogenität von Fach- und Lehramtsstudierenden im Kontext von Lehrveranstaltungen
(2017)
Vom Handeln und Schmusen
(2017)
Vermessung im Sonnensystem
(2017)
Die bisherigen Missionen ins Sonnensystem lieferten eine enorme Fülle an Daten in unterschiedlichen Formaten und in Form von Bildern und digitalen Messergebnissen. Die Oberflächenprozesse der planetaren Körper, die mit Hilfe dieser Daten erforscht werden können, sind äußerst vielfältig und reichen von Einschlagskratern über Vulkanismus und Tektonik zu allen Formen der Erosion und Sedimentation. Um diese Prozesse verstehen zu können werden Verfahren angewendet, die für die Datenanalyse auf der Erde entwickelt wurden. Allerdings ist es notwendig all diese Verfahren zum Teil mit erheblichem Aufwand und unter Berücksichtigung der jeweiligen physikalischen Rahmenbedingungen anzupassen. Die Entwicklung kartographischer Verfahren zur Abstraktion der hier angesprochenen Informationen, also die Erfassung, geomorphologische Analyse und Visualisierung planetarer Oberflächen und Prozesse, hat jedoch gerade erst begonnen. Um diese Entwicklungen voranzutreiben, hat das Deutsche Zentrum für Luft- und Raumfahrt in Kooperation mit der Universität Potsdam (Institut für Geographie, Fachgruppe Geoinformatik, Prof. Dr. Asche), im Rahmen von Dissertationen und Forschungsvorhaben, in einem ersten Schritt kartographische Analyseverfahren für den Mars und die Asteroiden Ceres und Vesta entwickelt.
Die Femtosekundendynamik nach resonanten Photoanregungen mit optischen und Röntgenpulsen ermöglicht eine selektive Verformung von chemischen N‐H‐ und N‐C‐Bindungen in 2‐Thiopyridon in wässriger Lösung. Die Untersuchung der orbitalspezifischen elektronischen Struktur und ihrer Dynamik auf ultrakurzen Zeitskalen mit resonanter inelastischer Röntgenstreuung an der N1s‐Resonanz am Synchrotron und dem Freie‐Elektronen‐Laser LCLS in Kombination mit quantenchemischen Multikonfigurationsberechnungen erbringen den direkten Nachweis dieser kontrollierten photoinduzierten Molekülverformungen und ihrer ultrakurzen Zeitskala.
Einleitung: Die Erdnussallergie zählt zu den häufigsten Nahrungsmittelallergien im Kindesalter. Bereits kleine Mengen Erdnuss (EN) können zu schweren allergischen Reaktionen führen. EN ist der häufigste Auslöser einer lebensbedrohlichen Anaphylaxie bei Kindern und Jugendlichen. Im Gegensatz zu anderen frühkindlichen Nahrungsmittelallergien entwickeln Patienten mit einer EN-Allergie nur selten eine natürliche Toleranz. Seit mehreren Jahren wird daher an kausalen Therapiemöglichkeiten für EN-Allergiker, insbesondere an der oralen Immuntherapie (OIT), geforscht. Erste kleinere Studien zur OIT bei EN-Allergie zeigten erfolgsversprechende Ergebnisse. Im Rahmen einer randomisierten, doppelblind, Placebo-kontrollierten Studie mit größerer Fallzahl werden in der vorliegenden Arbeit die klinische Wirksamkeit und Sicherheit dieser Therapieoption bei Kindern mit EN-Allergie genauer evaluiert. Des Weiteren werden immunologische Veränderungen sowie die Lebensqualität und Therapiebelastung unter OIT untersucht.
Methoden: Kinder zwischen 3-18 Jahren mit einer IgE-vermittelten EN-Allergie wurden in die Studie eingeschlossen. Vor Beginn der OIT wurde eine orale Provokation mit EN durchgeführt. Die Patienten wurden 1:1 randomisiert und entsprechend der Verum- oder Placebogruppe zugeordnet. Begonnen wurde mit 2-120 mg EN bzw. Placebo pro Tag, abhängig von der Reaktionsdosis bei der oralen Provokation. Zunächst wurde die tägliche OIT-Dosis alle zwei Wochen über etwa 14 Monate langsam bis zu einer Erhaltungsdosis von mindestens 500 mg EN (= 125 mg EN-Protein, ~ 1 kleine EN) bzw. Placebo gesteigert. Die maximal erreichte Dosis wurde dann über zwei Monate täglich zu Hause verabreicht. Im Anschluss erfolgte erneut eine orale Provokation mit EN. Der primäre Endpunkt der Studie war die Anzahl an Patienten der Verum- und Placebogruppe, die unter oraler Provokation nach OIT ≥1200 mg EN vertrugen (=„partielle Desensibilisierung“). Sowohl vor als auch nach OIT wurde ein Hautpricktest mit EN durchgeführt und EN-spezifisches IgE und IgG4 im Serum bestimmt. Außerdem wurden die Basophilenaktivierung sowie die Ausschüttung von T-Zell-spezifischen Zytokinen nach Stimulation mit EN in vitro gemessen. Anhand von Fragebögen wurde die Lebensqualität vor und nach OIT sowie die Therapiebelastung während OIT erfasst.
Ergebnisse: 62 Patienten wurden in die Studie eingeschlossen und randomisiert. Nach etwa 16 Monaten unter OIT zeigten 74,2% (23/31) der Patienten der Verumgruppe und nur 16,1% (5/31) der Placebogruppe eine „partielle Desensibilisierung“ gegenüber EN (p<0,001). Im Median vertrugen Patienten der Verumgruppe 4000 mg EN (~8 kleine EN) unter der Provokation nach OIT wohingegen Patienten der Placebogruppe nur 80 mg EN (~1/6 kleine EN) vertrugen (p<0,001). Fast die Hälfte der Patienten der Verumgruppe (41,9%) tolerierten die Höchstdosis von 18 g EN unter Provokation („komplette Desensibilisierung“). Es zeigte sich ein vergleichbares Sicherheitsprofil unter Verum- und Placebo-OIT in Bezug auf objektive Nebenwirkungen. Unter Verum-OIT kam es jedoch signifikant häufiger zu subjektiven Nebenwirkungen wie oralem Juckreiz oder Bauchschmerzen im Vergleich zu Placebo (3,7% der Verum-OIT-Gaben vs. 0,5% der Placebo-OIT-Gaben, p<0,001). Drei Kinder der Verumgruppe (9,7%) und sieben Kinder der Placebogruppe (22,6%) beendeten die Studie vorzeitig, je zwei Patienten beider Gruppen aufgrund von Nebenwirkungen. Im Gegensatz zu Placebo, zeigten sich unter Verum-OIT signifikante immunologische Veränderungen. So kam es zu einer Abnahme des EN-spezifischen Quaddeldurchmessers im Hautpricktest, einem Anstieg der EN-spezifischen IgG4-Werte im Serum sowie zu einer verminderten EN-spezifischen Zytokinsekretion, insbesondere der Th2-spezifischen Zytokine IL-4 und IL-5. Hinsichtlich der EN-spezifischen IgE-Werte sowie der EN-spezifischen Basophilenaktivierung zeigten sich hingegen keine Veränderungen unter OIT. Die Lebensqualität von Kindern der Verumgruppe war nach OIT signifikant verbessert, jedoch nicht bei Kindern der Placebogruppe. Während der OIT wurde die Therapie von fast allen Kindern (82%) und Müttern (82%) als positiv bewertet (= niedrige Therapiebelastung).
Diskussion: Die EN-OIT führte bei einem Großteil der EN-allergischen Kinder zu einer Desensibilisierung und einer deutlich erhöhten Reaktionsschwelle auf EN. Somit sind die Kinder im Alltag vor akzidentellen Reaktionen auf EN geschützt, was die Lebensqualität der Kinder deutlich verbessert. Unter den kontrollierten Studienbedingungen zeigte sich ein akzeptables Sicherheitsprofil, mit vorrangig milder Symptomatik. Die klinische Desensibilisierung ging mit Veränderungen auf immunologischer Ebene einher. Langzeitstudien zur EN-OIT müssen jedoch abgewartet werden, um die klinische und immunologische Wirksamkeit hinsichtlich einer möglichen langfristigen oralen Toleranzinduktion sowie die Sicherheit unter langfristiger OIT zu untersuchen, bevor das Therapiekonzept in die Praxis übertragen werden kann.
Die klassische Physik/Chemie unterscheidet zwischen drei Bindungstypen: Der kovalenten Bindung, der ionischen Bindung und der metallischen Bindung. Moleküle untereinander werden hingegen durch schwache Wechselwirkungen zusammen gehalten, sie sind trotz ihrer schwachen Kräfte weniger verstanden, aber dabei nicht weniger wichtig. In zukunftsweisenden Gebieten wie der Nanotechnologie, der Supramolekularen Chemie und Biochemie sind sie von elementarer Bedeutung.
Um schwache, intermolekulare Wechselwirkungen zu beschreiben, vorauszusagen und zu verstehen, sind sie zunächst theoretisch zu erfassen. Hierzu gehören verschiedene quantenchemische Methoden, die in dieser Arbeit vorgestellt, verglichen, weiterentwickelt und schließlich auch exemplarisch auf Problemstellungen in der Chemie angewendet werden. Aufbauend auf einer Hierarchie von Methoden unterschiedlicher Genauigkeit werden sie für diese Ziele eingesetzt, ausgearbeitet und kombiniert.
Berechnet wird die Elektronenstruktur, also die Verteilung und Energie von Elektronen, die im Wesentlichen die Atome zusammen halten. Da Ungenauigkeiten von der Beschreibung der Elektronenstruktur von den verwendeten Methoden abhängen, kann man die Effekte detailliert untersuchen, sie beschreiben und darauf aufbauend weiter entwickeln, um sie anschließend an verschiedenen Modellen zu testen. Die Geschwindigkeit der Berechnungen mit modernen Computern ist eine wesentliche, zu berücksichtigende Komponente, da im Allgemeinen die Genauigkeit mit der Rechenzeit exponentiell steigt, und die damit an die Grenzen der Möglichkeiten stoßen muss.
Die genaueste der verwendeten Methoden basiert auf der Coupled-Cluster-Theorie, die sehr gute Voraussagen ermöglicht. Für diese wird eine sogenannte spektroskopische Genauigkeit mit Abweichungen von wenigen Wellenzahlen erzielt, was Vergleiche mit experimentellen Daten zeigen. Eine Möglichkeit zur Näherung von hochgenauen Methoden basiert auf der Dichtefunktionaltheorie: Hier wurde das „Boese-Martin for Kinetics“ (BMK)-Funktional entwickelt, dessen Funktionalform sich in vielen nach 2010 veröffentlichten Dichtefunktionalen wiederfindet.
Mit Hilfe der genaueren Methoden lassen sich schließlich semiempirische Kraftfelder zur Beschreibung intermolekularer Wechselwirkungen für individuelle Systeme parametrisieren, diese benötigen weit weniger Rechenzeit als die Methoden, die auf der genauen Berechnung der Elektronenstruktur von Molekülen beruhen.
Für größere Systeme lassen sich auch verschiedene Methoden kombinieren. Dabei wurden Einbettungsverfahren verfeinert und mit neuen methodischen Ansätzen vorgeschlagen. Sie verwenden sowohl die symmetrieadaptierte Störungstheorie als auch die quantenchemische Einbettung von Fragmenten in größere, quantenchemisch berechnete Systeme.
Die Entwicklungen neuer Methoden beziehen ihren Wert im Wesentlichen durch deren Anwendung:
In dieser Arbeit standen zunächst die Wasserstoffbrücken im Vordergrund. Sie zählen zu den stärkeren intermolekularen Wechselwirkungen und sind nach wie vor eine Herausforderung. Im Gegensatz dazu sind van-der-Waals Wechselwirkungen relativ einfach durch Kraftfelder zu beschreiben. Deshalb sind viele der heute verwendeten Methoden für Systeme, in denen Wasserstoffbrücken dominieren, vergleichsweise schlecht.
Eine Untersuchung molekularer Aggregate mit Auswirkungen intermolekularer Wechselwirkungen auf die Schwingungsfrequenzen von Molekülen schließt sich an. Dabei wird auch über die sogenannte starrer-Rotor-harmonischer-Oszillator-Näherung hinausgegangen.
Eine weitreichende Anwendung behandelt Adsorbate, hier die von Molekülen auf ionischen/metallischen Oberflächen. Sie können mit ähnlichen Methoden behandelt werden wie die intermolekularen Wechselwirkungen, und sind mit speziellen Einbettungsverfahren sehr genau zu beschreiben. Die Resultate dieser theoretischen Berechnungen stimulierten eine Neubewertung der bislang bekannten experimentellen Ergebnisse.
Molekulare Kristalle sind ein äußerst wichtiges Forschungsgebiet. Sie werden durch schwache Wechselwirkungen zusammengehalten, die von van-der-Waals Kräften bis zu Wasserstoffbrücken reichen. Auch hier wurden neuentwickelte Methoden eingesetzt, die eine interessante, mindestens ebenso genaue Alternative zu den derzeit gängigen Methoden darstellen.
Von daher sind die entwickelten Methoden, als auch deren Anwendung äußerst vielfältig. Die behandelten Berechnungen der Elektronenstruktur erstrecken sich von den sogenannten post-Hartree-Fock-Methoden über den Einsatz der Dichtefunktionaltheorie bis zu semiempirischen Kraftfeldern und deren Kombinationen. Die Anwendung reicht von einzelnen Molekülen in der Gasphase über die Adsorption auf Oberflächen bis zum molekularen Festkörper.
Für den Industrialisierungsprozess von Entwicklungs- und Schwellenländern haben ausländische Direktinvestitionen (ADI) eine wichtige Funktion. Sie können zum einen zu einer Erhöhung des industriellen Output des Ziellandes führen und zum anderen als Träger von technologischem Wissen fungieren. Neues Wissen kann den Empfängerländern der ADI durch Spillovereffekte und Technologietransfers ausländischer Tochterunternehmen zufließen. Diese Arbeit soll Antworten auf die Fragen geben, durch welche Mechanismen Spillovereffekte und Technologietransfers ausgelöst werden und wie Entwicklungs- und Schwellenländern diesen Wissenszufluss zur Beschleunigung ihres Industrialisierungsprozesses einsetzen können. Hierfür wird ein Konzept zur Förderung von Spillovereffekten entwickelt. Weiterhin wird ein theoretisches Modell entwickelt, in dem der Technologietransfer ausländischer Exportplattformen erstmals in Abhängigkeit des Anteils der Vorprodukte, die im Gastland nachgefragt werden, untersucht. In den Fallstudien Irland und Malaysia werden die Ergebnisse des theoretischen Modells sowie des entwickelten Konzepts illustriert.
Der technologische Wandel stellt Organisationen vor die Herausforderung, Innovationen möglichst schnell produktiv zu nutzen und damit einen Wettbewerbsvorteil zu erzielen. Der Erfolg der Technologieeinführung hängt stark mit der Schaffung von Akzeptanz bei den Mitarbeitern zusammen. Bestehende Ansätze wie die Diffusionstheorie (Rogers, 2003) oder das Technology Acceptance Model (Davis, 1989; Venkatesh und Davis, 1996; Venkatesh und Davis, 2000; Venkatesh, Morris u. a., 2003) widmen sich dem Organisationskontext jedoch nur am Rande. Ihre Modelle zielen auf die Übernahme einer Technologie in freier Entscheidung und im Marktkontext ab. Weiterhin beleuchten sie den Widerstand gegen Neuerungen nicht, welcher sich bei der verpflichtenden Übernahme bilden kann. Zur Untersuchung der Technologieeinführung und von Akzeptanzbildungsprozessen in Organisationen sind sie daher nur begrenzt nutzbar.
Das Ziel dieser Arbeit ist es daher, den spezifischen Einfluss des Kontextes Organisation auf die Akzeptanz und das Nutzungsverhalten herauszuarbeiten. Konkreter soll die Forschungsfrage geklärt werden, welchen Einfluss unterschiedliche Organisationstypen auf die Akzeptanz- und Nutzungsdynamik innerhalb von Organisationen haben. Hierfür wird die Erweiterung und Synthese bestehender Modelle der Akzeptanzforschung um organisationsspezifische Attribute vorgenommen. Das resultierende Modell erfasst die dynamische Entwicklung innerhalb der Organisation und ermöglicht damit die Beobachtung des Wandels. Die Funktionsweise des entwickelten Modells soll in einem Simulationsexperiment demonstriert und die Wirkung unterschiedlicher Organisationsformen verdeutlicht werden.
Das Modell vereint daher zwei Perspektiven: Die personale Perspektive fasst Akzeptanz als kognitiv-psychischen Prozess auf individueller Ebene. Dieser basiert auf den Kalkülen und Entscheidungen einzelner Personen. Zentral sind hierfür die Beiträge der Diffusionstheorie (Rogers, 2003) sowie das Technology Acceptance Model in seinen diversen Weiterentwicklungen und Veränderungen (Davis, 1989; Venkatesh und Davis, 1996; Venkatesh und Davis, 2000; Venkatesh, Morris u. a., 2003). Individuelle Faktoren aus unterschiedlichen Fit-Theorien (Goodhue und Thompson, 1995; Floyd, 1986; Liu, Lee und Chen, 2011; Parkes, 2013) werden genutzt, um diese Modelle anzureichern. Neben der Entwicklung
einer positiven, förderlichen Einstellung muss jedoch auch die Ablehnung und das offene Opponieren gegen die Innovation berücksichtigt werden (Patsiotis, Hughes und Webber, 2012).
Die organisatorische Perspektive hingegen sieht Akzeptanzentscheidungen eingebettet in den sozialen Kontext der Organisation. Die gegenseitige Beeinflussung basiert auf der Beobachtung der Umgebung und der Internalisierung sozialen Drucks. Dem steht in Organisationen die intendierte Beeinflussung in Form von Steuerung gegenüber. Beide Vorgänge formen das Akzeptanz- oder das Nutzungsverhalten der Mitarbeiter. Ausgehend von einem systemtheoretischen Organisationsbegriff werden unterschiedliche Steuerungsmedien (Luhmann, 1997; Fischer, 2009) vorgestellt. Diese können durch Steuerungsakteure
(Change Agents, Management) intendiert eingesetzt werden, um den Akzeptanz- und Nutzungsprozess über Interventionen zu gestalten.
Die Wirkung der Medien unterscheidet sich in verschiedenen Organisationstypen. Zur Analyse unterschiedlicher Organisationstypen werden die Konfigurationen nach Mintzberg (1979) herangezogen. Diese zeichnen sich durch unterschiedliche Koordinationsmechanismen aus, welche wiederum auf dem Einsatz von Steuerungsmedien beruhen.
Die Demonstration der Funktionsweise und Analysemöglichkeiten des entwickelten Modells erfolgt anhand eines Simulationsexperiments mittels der Simulationsplattform AnyLogic. Das Gültigkeitsspektrum wird anhand einer Sensitivitätsanalyse geprüft.
In der Simulation lassen sich spezifische Muster der Nutzung und Akzeptanzentwicklung nachweisen. Die Akzeptanz ist durch ein initiales Absinken und ein anschließendes gedämpftes Wachstum gekennzeichnet. Die Nutzung wird in der Organisation hingegen schnell durchgesetzt und verharrt dann auf einem stabilen Niveau. Für die Organisationstypen konnten unterschiedliche Effekte beobachtet werden. So eignet sich die bürokratische Steuerungsform zur Nutzungserhöhung, schafft es jedoch nicht, die Akzeptanz zu steigern. Organisationen, welche eher auf gegenseitige Abstimmung zur Koordination ausgelegt sind, erhöhen die Akzeptanz, jedoch nicht die Nutzung. Weiterhin ist die Entwicklung der Akzeptanz in diesem Organisationstyp sehr unsicher und weist einen hohen Schwankungsbereich auf.
In Zeiten eines sich schnell ändernden und vielseitigen Energiemarktes müssen Kohlenstoffmaterialien für verschiedene Anforderungen einsetzbar sein. Dies erfordert flexibel synthetisierbare Kohlenstoffmaterialien bevorzugt aus günstigen und nachhaltigen Kohlenstoffquellen. Es ist allerdings nicht leicht Vorläuferverbindungen auszumachen, welche sich einerseits für verschiedene Herstellungsverfahren eignen und deren Kohlenstoffprodukte andererseits in spezifischen Eigenschaften, wie der Struktur, des Stickstoffanteils, der Oberfläche und der Porengrößen, eingestellt werden können. In diesem Zusammenhang können natürliche Polyphenole, etwa überschüssige Tannine aus der Weinproduktion, eine neue Welt zu hoch funktionalen und vielseitig einstellbaren Kohlenstoffmaterialien mit hohen Ausbeuten öffnen.
Das Hauptziel dieser vorliegenden Thesis war es neue funktionale, einstellbare und skalierbare nanostrukturierte Kohlenstoffmaterialien aus Tanninen (insbesondere Tanninsäure) für unterschiedliche elektrochemische Zwecke zu synthetisieren und zu charakterisieren. Ermöglicht wurde dies durch unterschiedliche synthetische Herangehensweisen, wie etwa der polymeren Strukturdirektion, dem ionothermalen Templatieren und der weichen Templatierung. An Stelle des weitläufig gebräuchlichen, aber kanzerogenen Vernetzungsagens Formaldehyd wurden bei den vorgestellten Synthesen Harnstoff und Thioharnstoff gewählt, um zugleich die synthetisierten Kohlenmaterialien variabel dotieren zu können.
Daher wurden im ersten Teil der Arbeit die Wechselwirkungen, Reaktionen und thermischen Verhaltensweisen von Tanninsäure und Mixturen von Tanninsäure und Harnstoff bzw. Thioharnstoff untersucht, um daraus wichtige Erkenntnisse für die verschiedenen Kohlenstoffsynthesen zu gewinnen.
Durch die Verwendung eines polymeren Strukturierungsagenz Pluronic P123 konnten in einer ersten Kohlenstoffsynthese nachhaltige und dotierbare Kohlenstoffpartikel mit Durchmessern im Nanometerbereich aus Tanninsäure und Harnstoff hergestellt werden. Es konnte dabei gezeigt werden, dass durch die Modifikation der verschiedenen Syntheseparameter die Kohlenstoffnanopartikel gemäß ihres gemittelten Partikeldurchmessers, ihrer BET-Oberfläche, ihrer Komposition, ihrer Leitfähigkeit und ihrer chemischen Stabilität einstellbar sind. Dies eröffnete die Möglichkeit diese Kohlenstoffpartikel als alternatives und nachhaltiges Rußmaterial einzusetzen.
Weiterhin war es durch die ionothermale Templatierung möglich poröse, dotierte und kontrollierbare Kohlenstoffpartikel mit hohen spezifischen Oberflächen aus den gewählten Präkursorverbindungen zu synthetisieren, die sich für den Einsatz in Superkondensatoren eignen.
Auf diesen Erkenntnissen aufbauend konnten mittels der Rotationsbeschichtung poröse binderfreie und strukturierte Kohlenstofffilme synthetisiert werden, die eine spinodale Struktur aufwiesen. Anhand der Modifikation der Stammlösungskonzentration, der Rotationsgeschwindigkeit und der verwendeten Substrate konnten die Filmdicke (100-1000 nm), die Morphologie und Gesamtoberfläche gezielt beeinflusst werden. Die erweiterte elektrochemische Analyse zeigte außerdem ein sehr gut zugängliches Porensystem der porösen Kohlenstofffilme.
Allumfassend konnten demnach verschiedene Synthesewege für Kohlenstoffmaterialien aus Tanninen aufgezeigt werden, die verschiedenartig strukturiert und kontrolliert werden können und sich für diverse Anwendungsgebiete eignen.
Theoretischer Hintergrund:Supervision spielt eine zentrale Rolle zum Wissens- und Kompetenzerwerb sowie in der Qualitätssicherung.
Fragestellung:Ziel war es, den aktuellen Forschungsstand zur Supervision im Rahmen der kognitiven Verhaltenstherapie abzubilden, um daraus Schlussfolgerungen für die zukünftige Forschung abzuleiten.
Methode:Zur Evidenzsynthese wurde ein Scoping Review durchgeführt, das die Darstellung zentraler Konzepte, aktueller Evidenz und möglicher Forschungsbedarfe ermöglichte. Neben einer systematischen Literaturrecherche wurden Vorwärts- und Rückwärtssuchstrategien eingesetzt.
Ergebnisse:Eingeschlossen wurden zwölf Publikationen basierend auf zehn empirischen Studien. Alle Studien beschrieben Ausbildungssettings, aber nur wenige untersuchten übende Interventionen (z. B. Rollenspiele). Häufig wurden Effekte subjektiv erfasst, die methodische Qualität der Begleitstudien variierte.
Schlussfolgerungen:Notwendig sind weitere methodisch hochwertige Studien, experimentell orientiert oder in der klinischen Praxis, die die Supervisionsforschung bereichern können.
Studium nach Bologna
(2017)
Ziel des vorliegenden dritten Bandes der Potsdamer Beiträge zur Hochschulforschung ist es, ausgewählte Aspekte der Hochschuldebatte um Studium und Lehre zu beleuchten und mit empirischen Befunden zu vertiefen. Im Fokus stehen solche aktuellen Debatten wie die Gestaltung des Studieneingangs, die Erhöhung der Beschäftigungsbefähigung, die Qualität der Praktika sowie Probleme der Lehrerbildung. Dabei wird die Hochschuldebatte in Deutschland durch einschlägige Beiträge aus anderen, west- und osteuropäischen Ländern erweitert.
Die Reihe versteht sich als Forum verschiedener Akteure aus der Hochschulforschung, die die Diskussion zur Qualitätsentwicklung in Lehre und Studium mit ihren Impulsen aus Analysen und empirischen Ergebnissen bereichern sollen. Der Band richtet sich an alle, die sich für die Entwicklung an Hochschulen interessieren.
Sprache im Musikunterricht
(2017)
Mit dem vorliegenden Band 5 der Potsdamer Schriftenreihe zur Musikpädagogik wird die bildungspolitische Diskussion um den Stellenwert bewussten Sprachhandelns im Fach aufgegriffen. Ausgehend vom aktuellen Forschungsstand zum Thema „Sprache und Sprechen im Musikunterricht“ werden Forschungsarbeiten vorgestellt, die in diesem Kontext zwischen 2013 und 2016 am Lehrstuhl für Musikpädagogik und Musikdidaktik der Universität Potsdam entstanden sind. Die Beiträge skizzieren sowohl Möglichkeiten zur Umsetzung eines sprachbildenden Fachunterrichts Musik als auch soziale Aspekte sprachlichen Lehrerhandelns und setzen damit neue Impulse im musikpädagogischen Diskurs.
Die Veröffentlichung der vorliegenden Forschungsergebnisse wurde durch die Unterstützung des Ministeriums für Arbeit, Soziales, Gesundheit, Frauen und Familie des Landes Brandenburg und der Integrationsbeauftragten sowie durch die Universitätsgesellschaft Potsdam e. V. ermöglicht.
Das 10. Herbsttreffen Patholinguistik mit dem Schwerpunktthema »Panorama Patholinguistik: Sprachwissenschaft trifft Sprachtherapie« fand am 19.11.2016 in Potsdam statt. Das Herbsttreffen wird seit 2007 jährlich vom Verband für Patholinguistik e.V. (vpl) durchgeführt. Der vorliegende Tagungsband beinhaltet die vier Hauptvorträge zum Schwerpunktthema sowie Beiträge zu den Kurzvorträgen »Patholinguistik im Fokus« und der Posterpräsentationen zu weiteren Themen aus der sprachtherapeutischen Forschung und Praxis.
In der vorliegenden Arbeit konnten erfolgreich zwei unterschiedliche Hybridmaterialien (HM) über die Sol-Gel-Methode synthetisiert werden. Bei den HM handelt es sich um Monolithe mit einem Durchmesser von bis zu 4,5 cm. Das erste HM besteht aus Titandioxid und Bombyx mori Seide und wird als TS bezeichnet, während das zweite weniger Seide und zusätzlich Polyethylenoxid (PEO) enthält und daher als TPS abgekürzt wird. Einige der HM wurden nach der Synthese in eine wässrige Tetrachloridogoldsäure-Lösung getaucht, wodurch sich auf der Oberfläche Goldnanopartikel gebildet haben.
Die Materialien wurden mittels Elektronenmikroskopie, energiedispersiver Röntgenspektroskopie, Ramanspektroskopie sowie Röntgenpulverdiffraktometrie charakterisiert. Die Ergebnisse zeigen, dass beide HM aus etwa 5 nm großen, sphärischen Titandioxidnanopartikeln aufgebaut sind, die primär aus Anatas und zu einem geringen Anteil aus Brookit bestehen. Die Goldnanopartikel bei TPS_Au waren größer und polydisperser als die Goldnanopartikel auf dem TS_Au HM. Darüber hinaus sind die Goldnanopartikel im TS HM tiefer in das Material eingedrungen als beim TPS HM.
Die weiterführende Analyse der HM mittels Elementaranalyse und thermogravimetrischer Analyse ergab für TPS einen geringeren Anteil an organischen Bestandteilen im HM als für TS, obwohl für beide Synthesen die gleiche Masse an organischen Materialien eingesetzt wurde. Es wird vermutet, dass das PEO während der Synthese teilweise wieder aus dem Material herausgewaschen wird. Diese Theorie korreliert mit den Ergebnissen aus der Stickstoffsorption und der Quecksilberporosimetrie, die für das TPS HM eine höhere Oberfläche als für das TS HM anzeigten.
Die Variation einiger Syntheseparameter wie die Menge an Seide und PEO oder die Zusammensetzung der Titandioxidvorläuferlösung hatte einen großen Einfluss auf die synthetisierten HM. Während unterschiedliche Mengen an PEO die Größe des HM beeinflussten, konnte ohne Seide kein HM in einer ähnlichen Größe hergestellt werden. Die Bildung der HM wird stark von der Zusammensetzung der Titandioxidvorläuferlösung beeinflusst. Eine Veränderung führte daher nur selten zur Bildung eines homogenen HM.
Die in dieser Arbeit synthetisierten HM wurden als Photokatalysatoren für die Wasserspaltung und den Abbau von Methylenblau eingesetzt. Bei der photokatalytischen Wasserspaltung wurde zunächst der Einfluss unterschiedlicher Goldkonzentrationen beim TPS HM auf die Wasserstoffausbeute untersucht. Die besten Ergebnisse wurden bei einer Menge von 2,5 mg Tetrachloridogoldsäure erhalten. Darüber hinaus wurde gezeigt, dass mit dem TPS HM eine deutlich höhere Menge an Wasserstoff gewonnen werden konnte als mit dem TS HM. Die Ursachen für die schlechtere Aktivität werden in der geringeren spezifischen Oberfläche, der unterschiedlichen Porenstruktur, dem höheren Anteil an Seide und besonders in der geringeren Größe und höheren Eindringtiefe der Goldnanopartikel vermutet. Darüber hinaus konnte mit einem höheren UV-Anteil in der Lichtquelle sowie durch die Zugabe von Ethanol als Opferreagenz eine Zunahme der Wasserstoffausbeute erzielt werden.
Bei dem Methylenblauabbau wurde für beide HM zunächst nur eine Adsorption des Methylenblaus beobachtet. Nach der Zugabe von Wasserstoffperoxid konnte nach 8 h bereits eine fast vollständige Oxidation des Methylenblaus unter sichtbarem Licht beobachtet werden. Die Ursache für die etwas höhere Aktivität von TPS gegenüber TS wird in der unterschiedlichen Porenstruktur und dem höheren Anteil an Seide im TS HM vermutet. Insgesamt zeigen beide HM eine gute photokatalytische Aktivität für den Abbau von Methylenblau im Vergleich zu den erhaltenen Werten aus der Literatur.
Die zerstörungsfreien Prüfungen von Bauwerken mit Hilfe von Ultraschallmessverfahren haben in den letzten Jahren an Bedeutung gewonnen. Durch Ultraschallmessungen können die Geometrien von Bauteilen bestimmt sowie von außen nicht sichtbare Fehler wie Delaminationen und Kiesnester erkannt werden.
Mit neuartigen, in das Betonbauteil eingebetteten Ultraschallprüfköpfen sollen nun Bauwerke dauerhaft auf Veränderungen überprüft werden. Dazu werden Ultraschallsignale direkt im Inneren eines Bauteils erzeugt, was die Möglichkeiten der herkömmlichen Methoden der Bauwerksüberwachung wesentlich erweitert. Ein Ultraschallverfahren könnte mit eingebetteten Prüfköpfen ein Betonbauteil kontinuierlich integral überwachen und damit auch stetig fortschreitende Gefügeänderungen, wie beispielsweise Mikrorisse, registrieren.
Sicherheitsrelevante Bauteile, die nach dem Einbau für Messungen unzugänglich oder mittels Ultraschall, beispielsweise durch zusätzliche Beschichtungen der Oberfläche, nicht prüfbar sind, lassen sich mit eingebetteten Prüfköpfen überwachen. An bereits vorhandenen Bauwerken können die Ultraschallprüfköpfe mithilfe von Bohrlöchern und speziellem Verpressmörtel auch nachträglich in das Bauteil integriert werden. Für Fertigbauteile bieten sich eingebettete Prüfköpfe zur Herstellungskontrolle sowie zur Überwachung der Baudurchführung als Werkzeug der Qualitätssicherung an. Auch die schnelle Schadensanalyse eines Bauwerks nach Naturkatastrophen, wie beispielsweise einem Erdbeben oder einer Flut, ist denkbar.
Durch die gute Ankopplung ermöglichen diese neuartigen Prüfköpfe den Einsatz von empfindlichen Auswertungsmethoden, wie die Kreuzkorrelation, die Coda-Wellen-Interferometrie oder die Amplitudenauswertung, für die Signalanalyse. Bei regelmäßigen Messungen können somit sich anbahnende Schäden eines Bauwerks frühzeitig erkannt werden.
Da die Schädigung eines Bauwerks keine direkt messbare Größe darstellt, erfordert eine eindeutige Schadenserkennung in der Regel die Messung mehrerer physikalischer Größen die geeignet verknüpft werden. Physikalische Größen können sein: Ultraschalllaufzeit, Amplitude des Ultraschallsignals und Umgebungstemperatur. Dazu müssen Korrelationen zwischen dem Zustand des Bauwerks, den Umgebungsbedingungen und den Parametern des gemessenen Ultraschallsignals untersucht werden.
In dieser Arbeit werden die neuartigen Prüfköpfe vorgestellt. Es wird beschrieben, dass sie sich, sowohl in bereits errichtete Betonbauwerke als auch in der Konstruktion befindliche, einbauen lassen. Experimentell wird gezeigt, dass die Prüfköpfe in mehreren Ebenen eingebettet sein können da ihre Abstrahlcharakteristik im Beton nahezu ungerichtet ist. Die Mittenfrequenz von rund 62 kHz ermöglicht Abstände, je nach Betonart und SRV, von mindestens 3 m zwischen Prüfköpfen die als Sender und Empfänger arbeiten. Die Empfindlichkeit der eingebetteten Prüfköpfe gegenüber Veränderungen im Beton wird an Hand von zwei Laborexperimenten gezeigt, einem Drei-Punkt-Biegeversuch und einem Versuch zur Erzeugung von Frost-Tau-Wechsel Schäden. Die Ergebnisse werden mit anderen zerstörungsfreien Prüfverfahren verglichen. Es zeigt sich, dass die Prüfköpfe durch die Anwendung empfindlicher Auswertemethoden, auftretende Risse im Beton detektieren, bevor diese eine Gefahr für das Bauwerk darstellen. Abschließend werden Beispiele von Installation der neuartigen Ultraschallprüfköpfe in realen Bauteilen, zwei Brücken und einem Fundament, gezeigt und basierend auf dort gewonnenen ersten Erfahrungen ein Konzept für die Umsetzung einer Langzeitüberwachung aufgestellt.
Anhand von Daten der Mannheimer Risikokinderstudie, die sich mit der langfristigen Entwicklung von Kindern mit unterschiedlichen Risikobelastungen beschäftigt, wird gezeigt, wie Schutzfaktoren aufseiten des Kindes und seines familiären Umfelds im Verlauf der Entwicklung wirksam werden und zur Entstehung von Resilienz beitragen können. Eine besondere Rolle kommt dabei positiven frühen Eltern-Kind-Beziehungen zu (sowohl Mutter- als auch Vater-Kind-Interaktionen). Daneben spielen auch Interaktionserfahrungen im Alter von zwei Jahren des Kindes eine bedeutsame Rolle; diese schützen Risikokinder davor, eine ungünstige Entwicklung zu nehmen und tragen dazu bei, dass sich Kinder, die in psychosozialen Hochrisikofamilien aufwachsen, trotz ungünstiger „Startbedingungen“ positiv entwickeln. Neben Merkmalen der sozialen Umwelt nehmen auch sprachliche, sozial-emotionale und internale Kompetenzen des Kindes im Entwicklungsverlauf eine wichtige Rolle ein. Diese Kompetenzen ermöglichen es Risikokindern auch unter widrigen Lebensumständen (psychosoziale Hochrisikofamilien, Aufwachsen in Armutsverhältnissen) erfolgreich zu bestehen. Darüber hinaus zeigt die Arbeit, dass Resilienz ein Persönlichkeitsmerkmal ist, das ab dem frühen Erwachsenenalter eine hohe Stabilität besitzt. Mit diesen Befunden verweist die Arbeit auf die große Bedeutung der Resilienz bei der Vorhersage der langfristigen Entwicklung von Risikokindern.
Region – Sprache – Literatur
(2017)
Mit dem neuen Rahmenlehrplan für die Länder Brandenburg und Berlin wird der Kompetenzentwicklung der Schülerinnen und Schüler unter den Bedingungen lebensweltlicher Erfahrungen ein besonderer Stellenwert beigemessen. Der Sammelband enthält Beiträge, in denen den Lehrerinnen und Lehrern vielfältige Unterrichtsmaterialien und didaktische Anregungen für einen praxisnahen, entdeckenden Unterricht in der Primar- und Sekundarstufe für den Deutschunterricht vorgestellt werden. Diese reichen von theoretischen Grundlagen, über einzelne Unterrichtssequenzen und Projekte bis zur Darstellung einer Lernspirale für die Jahrgangsstufen 1 bis 10. Vielfältige, auch multimediale Zugänge bis zum spielerischen Umgang mit der Sprache zeigen, dass Sprache kein „trockener“ Lerngegenstand sein muss. Die Beiträge geben darüber hinaus Einblicke in die fachlichen Hintergründe, die helfen sollen, den Zugang zu den einzelnen Gegenständen zu erleichtern. Das thematische Zentrum „Region“ bildet den Ausgangspunkt für die Einbeziehung des Niederdeutschen, Sorbischen, Berlinischen, Kiezdeutschen sowie der Dialekte. Dabei werden sowohl literarische als auch Sachtexte berücksichtigt.
Region und Varietät
(2017)
Das in den USA bereits weit verbreitete Predictive Policing, die vorhersagende
Polizeiarbeit, entwickelt sich seit zwei bis drei Jahren auch auf dem deutschen
Sicherheitsmarkt sehr dynamisch. Unter Nutzung und Weiterentwicklung von
Geographischen Informationssystemen sowie raumbasierter Algorithmen und
Modellierungen werden für beliebige Orte die Auftrittswahrscheinlichkeiten von
Straftaten ermittelt. In der Praxis erhält damit die Polizei ortsbezogene Hinweise
für die strategische Planung ihrer Einsätze. Für die Humangeographie und die
Geoinformatik ist Predictive Policing also ein äußerst interessantes Beobachtungsund
Betätigungsfeld, das in diesem Beitrag unter die Lupe genommen werden soll.
Dabei wird es weniger um die GIS-technischen und mathematisch-statistischen
Hintergründe des Predictive Policing gehen. Vielmehr sollen einige Gedanken
geäußert werden, weshalb sich dieses Instrument auf dem Sicherheitsmarkt etablieren
konnte und über welche Potenziale und Grenzen des Predictive Policing
von Vertreter(inne)n aus Politik, Polizei, Kriminalsoziologie und Geographie diskutiert
wird.
Portal Wissen = reich
(2017)
Reich – das ist eine komplexe Sache. Während Weltreiche der Menschen kommen und gehen, auch wenn sie nur allzu oft das Gegenteil behaupten, und die ewigwährende Existenz des Himmelreichs bis heute nicht glaubhaft bewiesen ist, kann ein anderes, das so viel älter ist, einen scheinbar unerschöpflichen Reichtum vorweisen: das Reich der Tiere und Pflanzen.
A propos Reichtum: Auch der ist nicht ohne, gerade wenn es dabei ums Geld geht. Die einen sind reich und wollen es um jeden Preis bleiben. Die anderen wollen es noch werden und suchen den Weg dorthin. Manche den schnellsten, manche den einfachsten, manche den perfekten. Es gibt sogar Menschen, die dabei nichts dem Zufall überlassen wollen und die Sache wissenschaftlich angehen. So wie der amerikanische Schrifsteller Wallace D. Wattles, der 1903 ein Buch mit dem Titel „Die Wissenschaft des Reichwerdens“ vorlegte. Seine Abhandlung war für „Männer und Frauen gedacht, deren dringendes Bedürfnis Geld ist, die zuerst reich werden und danach philosophieren wollen“. Von seinem Werk war er derart überzeugt, dass er eine Art Erfolgsgarantie formulierte. Wer seinen Ausführungen folge, werde „zweifellos reich werden, denn die hierin angewendete Wissenschaft ist eine genaue Wissenschaft, und Misserfolg ist unmöglich“.
Wattles ist inzwischen weitgehend vergessen, aber das Geheimnis – finanziellen – Reichtums scheint alles andere als entschlüsselt. Die einen haben ihn, die anderen wollen ihn. Dazwischen klaffen Welten – sowie Neid, Vorurteile und Unkenntnis. Grund genug für uns, noch einmal auf Wallace D. Wattles und seinen so selbstbewusst behaupteten Zusammenhang von Reichtum und Wissenschaft zu schauen und zu sagen: Ja! Natürlich macht Wissenschaft reich, aber vor allem an Erkenntnissen, Erfahrungen – und eben Wissen. Wissenschaft ist in ihrem Inneren nicht ruhmreich, sondern lehrreich. Und das Schöne ist: Der Reichtum, den Wissenschaft bringt, ist von jener Art, dass er allen zugleich und gleichermaßen zugutekommen kann. Niemand muss sich auf Kosten anderer bereichern, im Gegenteil: Oft lässt sich gemeinsam viel mehr erreichen. Alles andere kommt (fast) von selbst. „Derjenige, der Wissen erwirbt, wird von Gott reich belohnt“, lautet die vom islamischen Propheten Mohammed überlieferte religiös angereicherte Form dieses Loblieds auf die Wissenschaft.
In der aktuellen Ausgabe der „Portal Wissen“ soll es freilich – erfreulich unzeitgemäß – faktisch zugehen. Deshalb laden wir Sie ein auf einen Rundgang durch das Forschungsreich der Universität Potsdam und ihrer Partner. So geht es artenreich um Forschungen zu Schweinswalen und Labormäusen. Wir zeigen Ihnen eine Historikerin auf den Spuren eines reichen Domschatzes und sprechen mit einem Bildungsforscher über das Geheimnis finanziellen Reichtums. Germanisten erklären uns die reiche Sprache der Literaturkritik in der Epoche der Aufklärung und wir folgen einem Geowissenschaftler in die Berge, wo er reichlich große Brocken bewegt, um die richtigen Steine zu finden. Außerdem geht es um die Städte von morgen, die hoch und trotzdem (reich an) grün sind, reichlich Wasser bei einer Jahrhundertsturzflut und Insekten als Alternative für eine reichhaltige Ernährung von morgen. Wir führen Sie ins Grenzgebiet zweier Disziplinen, wo sich Jura und Philosophie die Hand reichen, sprechen mit zwei Literaturwissenschaftlern, die der erstaunlichen Reichweite des Phänomens Schlager nachgehen und erfahren von einer Nachhaltigkeitsforscherin, wie sich angesichts drängender globaler Probleme – abermals: gemeinsam – dauerhafte Lösungen erreichen lassen.
Reicht Ihnen das? Wir wünschen Ihnen eine genussreiche Lektüre!
Die Redaktion