Refine
Has Fulltext
- yes (74) (remove)
Year of publication
- 2014 (74) (remove)
Document Type
- Doctoral Thesis (27)
- Monograph/Edited Volume (14)
- Article (10)
- Part of Periodical (9)
- Postprint (6)
- Bachelor Thesis (3)
- Master's Thesis (3)
- Conference Proceeding (2)
Language
- German (74) (remove)
Is part of the Bibliography
- yes (74) (remove)
Keywords
- Gewalt (6)
- Kriminalität (6)
- Nachhaltigkeit (6)
- Prävention (6)
- Rechtsextremismus (6)
- crime (6)
- prevention (6)
- right-wing extremism (6)
- sustainability (6)
- violence (6)
Institute
- Referat für Presse- und Öffentlichkeitsarbeit (6)
- Sozialwissenschaften (6)
- Humanwissenschaftliche Fakultät (5)
- Institut für Chemie (5)
- Institut für Biochemie und Biologie (4)
- Institut für Germanistik (4)
- Bürgerliches Recht (3)
- Institut für Physik und Astronomie (3)
- Wirtschaftswissenschaften (3)
- Öffentliches Recht (3)
Ökonomen wie Wirtschaftspolitiker berufen sich auf die Neutralitätstheorie des Geldes, wenn sie eine Entpolitisierung der Geldpolitik fordern. Sowohl die Theorie der Geldneutralität als auch das Paradigma der Entpolitisierung der Geldpolitik sind jedoch problematisch. Die politökonomischen Entwicklungen nach der globalen Finanz- und Wirtschaftskrise 2007/2008 und die jüngsten Kontroversen über die Rolle und Bedeutung von Geld haben dies deutlich vor Augen geführt. Die vorliegende Arbeit diskutiert zunächst die konzeptionellen Grundlagen und theoretischen Modelle der Geldneutralität. Anschließend werden die zentralen theoretischen Annahmen und Aussagen der Neutralitätstheorie aus einer kritischen heterodoxen Perspektive hinterfragt. Es wird argumentiert, dass Geld eine nicht-neutrale Produktionskraft ist, die weder ökonomisch noch sozial neutral ist. Die Bedingungen, unter denen Geld verfügbar ist und zirkuliert, sind richtungsweisend für die ökonomische Entwicklung. Daher kann es auch kein neutrales Geld oder gar eine apolitische Geldpolitik geben.
Im Rahmen eines interdisziplinären studentischen Projekts wurde ein Framework für mobile pervasive Lernspiele entwickelt. Am Beispiel des historischen Lernortes Park Sanssouci wurde auf dieser Grundlage ein Lernspiel für Schülerinnen und Schüler implementiert. Die geplante Evaluation soll die Lernwirksamkeit von geobasierten mobilen Lernspielen messen. Dazu wird die Intensität des Flow-Erlebens mit einer ortsgebundenen alternativen Umsetzung verglichen.
Portal Wissen = Glauben
(2014)
Menschen wollen wissen, was wirklich ist. Kinder lassen sich gern eine Geschichte erzählen, aber spätestens mit vier Jahren fragten meine, ob diese Geschichte so passiert sei oder nur erfunden. Das setzt sich fort: Auch unsere wissenschaftliche Neugier wird vom Interesse befeuert herauszufinden, was wirklich ist. Selbst dort, wo wir poetische Texte oder Träume erforschen, tun wir es in der Absicht, die realen sprachlichen Strukturen bzw. die neurologischen Faktoren von bloß vermuteten zu unterscheiden. Im Idealfall können wir Ergebnisse präsentieren, die von anderen logisch nachvollzogen und empirisch wiederholbar sind. Meistens geht das aber nicht. Wir können nicht jedes Buch lesen und nicht in jedes Mikroskop schauen, nicht einmal innerhalb der eigenen Disziplin. Wie viel mehr sind wir in der Lebenswelt darauf angewiesen, den Ausführungen anderer zu vertrauen, wenn wir wissen wollen, wo es zum Bahnhof geht oder ob es in Ulan Bator schön ist. Deshalb haben wir uns daran gewöhnt, anderen Glauben zu schenken, vom Freund bis zum Tagesschausprecher. Das ist kein kindliches Verhalten, sondern eine Notwendigkeit. Freilich ist das riskant, denn alle anderen könnten uns – wie in der „Truman- Show“ – anlügen. In der Wirklichkeit wissen wir uns erst dann, wenn wir unser Selbstbewusstsein verlassen und akzeptieren, dass wir erstens nicht nur Objekte, sondern Subjekte im Bewusstsein von anderen sind, und zweitens, dass alle unsere dialogischen Beziehungen noch einmal von einem Dritten betrachtet werden, der nicht Teil dieser Welt ist.
Für Religiöse ist das der Glaube. Glaube als Unterstellung, dass alle menschlichen Beziehungen erst dann wirklich, ernst und über Zweifel erhaben sind, wenn sie sich vor den Augen Gottes wissen. Erst vor ihm ist etwas als es selbst und nicht nur „für mich“ oder „unter uns“. Daher unterscheidet die biblische Sprache drei Formen des Glaubens: die Beziehung zur Ding-Welt („glauben, dass“), die Beziehung zur Subjekt-Welt („jemandem glauben“) und die Annahme einer subjekthaften überirdischen Wirklichkeit („glauben an“). Wissenschaftstheoretisch gesehen ist Glaube also eine Totalhypothese. Glaube ist nicht das Gegenteil von Wissen, sondern der Versuch, Wirklichkeit vor dem Zweifel zu retten, indem man die fragile empirische Welt als Ausdruck einer stabilen transzendenten Welt begreift.
Oft wollen Studierende in Gesprächen nicht nur wissen, was ich weiß, sondern, was ich glaube. Als Religionswissenschaftler und gleichzeitig gläubiger Katholik sitze ich zwischen den Stühlen: Einerseits ist es als Professor meine Aufgabe, alles zu bezweifeln, d.h. jeden religiösen Text auf seine historischen Kontexte und soziologischen Funktionen zurückzuführen. Andererseits hält der Christ in mir bestimmte religiöse Dokumente – in meinem Fall die Bibel – zwar für einen interpretierbaren, aber doch irreversiblen, offenbarten Text, der vom Ursprung der Wirklichkeit handelt. Werktags ist das Neue Testament eine antike Schriftensammlung neben vielen anderen, am Sonntag ist es die Offenbarung. Beides kann klar unterschieden werden, aber es ist schwer zu entscheiden, ob das Zweifeln oder das Glauben wirklicher ist.
Das vorliegende Heft geht diesem doppelten Verhältnis zum Glauben nach: Wie steht Wissenschaft zum Glauben – ob religiös oder nicht? Wo bringt Wissenschaft Dinge ans Licht, die wir kaum glauben mögen oder uns (wieder) glauben lassen? Was passiert, wenn Forschung irrige Annahmen oder Mythen aufklärt? Ist Wissenschaft in der Lage, Dingen auf den Grund zu gehen, die zwar überzeugend, aber unerklärbar sind? Wie kann sie selbst glaubwürdig bleiben und sich dennoch weiterentwickeln?
In den Beiträgen dieser „Portal Wissen“ scheinen diese Fragen immer wieder auf. Sie bilden ein vielfältiges, spannendes und auch überraschendes Bild der Forschungsprojekte und der Wissenschaftler an der Universität Potsdam. Glauben Sie mir, es erwartet Sie eine anregende Lektüre!
Prof. Dr. Johann Hafner
Professor für Religionswissenschaft mit dem Schwerpunkt Christentum
Dekan der Philosophischen Fakultät
Weltweit streben Anti-Doping Institute danach jene Sportler zu überführen, welche sich unerlaubter Mittel oder Methoden bedienen. Die hierfür notwendigen Testsysteme werden kontinuierlich weiterentwickelt und neue Methoden aufgrund neuer Wirkstoffe der Pharmaindustrie etabliert. Gegenstand dieser Arbeit war es, eine parallele Mehrkomponentenanalyse auf Basis von Antigen-Antikörper Reaktionen zu entwickeln, bei dem es primär um Verringerung des benötigten Probevolumens und der Versuchszeit im Vergleich zu einem Standard Nachweis-Verfahren ging. Neben der Verwendung eines Multiplex Ansatzes und der Mikroarraytechnologie stellten ebenfalls die Genauigkeit aller Messparameter, die Stabilität des Versuchsaufbaus sowie die Performance über einen Einfach-Blind-Ansatz Herausforderungen dar. Die Anforderung an den Multiplex Ansatz, keine falschen Signale trotz ähnlicher Strukturen zu messen, konnte durch die gezielte Kombination von spezifischen Antikörpern realisiert werden. Hierfür wurden neben Kreuzreaktivitätstests auf dem Mikroarray parallel erfolgreich Western Blot Versuche durchgeführt. Jene Antikörper, welche in diesen Versuchen die gesetzten Anforderungen erfüllten, wurden für das Ermitteln der kleinsten nachweisbaren Konzentration verwendet. Über das Optimieren der Versuchsbedingungen konnte unter Verwendung von Tween in der Waschlösung sowohl auf Glas als auch auf Kunststoff die Hintergrundfluoreszenz reduziert und somit eine Steigerung des Signal/Hintergrundverhältnisses erreicht werden. In den Versuchen zu Ermittlung der Bestimmungsgrenze wurde für das humane Choriongonadotropin (hCG-i) eine Konzentration von 10 mU/ml, für dessen beta-Untereinheit (hCG-beta) eine Konzentration von 3,6 mU/ml und für das luteinisierende Hormon (LH) eine Konzentration von 10 mU/ml bestimmt. Den ermittelten Wert im Serum für das hCG-i entspricht dem von der Welt-Anti-Dopin-Agentur (WADA) geforderten Wert in Urin von 5 mU/ml. Neben der Ermittlung von Bestimmungsgrenzen wurden diese hinsichtlich auftretender Matrixeffekte in Serum und Blut gemessen. Wie aus den Versuchen zur Ermittlung von Kreuzreaktivitäten auf dem Mikroarray zu entnehmen ist, lassen sich das LH, das hCG-i und hCG-β ebenfalls in Serum und Blut messen. Die Durchführung einer Performance-Analyse über einem Einfach-Blind-Ansatz mit 130 Serum Proben, wurde ebenfalls über dieses System realisiert. Die ausgewerteten Proben wurden anschließend über eine Grenzwertoptimierungskurve analysiert und die diagnostische Spezifität ermittelt. Für die Messungen des LH konnte eine Sensitivität und Spezifität von 100% erreicht werden. Demnach wurden alle negativen und positiven Proben eindeutig interpretiert. Für das hCG-β konnte ebenfalls eine Spezifität von 100% und eine Sensitivität von 97% erreicht werden. Die hCG-i Proben wurden mit einer Spezifität von 100% und eine Sensitivität von 97,5% gemessen. Um den Nachweis zu erbringen, dass dieser Versuchsaufbau über mehrere Wochen stabile Signale bei Vermessen von identischen Proben liefert, wurde ein über zwölf Wochen angesetzter Stabilitätstest für alle Parameter erfolgreich in Serum und Blut durchgeführt. Zusammenfassend konnte in dieser Arbeit erfolgreich eine Mehrkomponentenanalyse als Multiplex Ansatz auf einem Mikroarray entwickelt werden. Die Durchführung der Performance-Analyse und des Stabilitätstests zeigen bereits die mögliche Einsatzfähigkeit dieses Tests im Kontext einer Dopinganalyse.
Portal Wissen = Zeit
(2014)
„Was ist also 'Zeit'?“ seufzt Augustinus von Hippo im 11. Buch seiner „Confessiones“ melancholisch, und fährt fort „Wenn mich niemand danach fragt, weiß ich es; will ich einem Fragenden es erklären, weiß ich es nicht.“ Auch heute, 1584 Jahre nach Augustinus, erscheint 'Zeit' immer noch rätselhaft. Abhandlungen über das Wesen der Zeit füllen Bibliotheken. Oder eben dieses Heft.
Wesensfragen sind den modernen Wissenschaften allerdings fremd. Zeit ist – zumindest in der Physik – unproblematisch. „Time is defined so that Motion looks simple“ erkärt man kurz und trocken, und verabschiedet sich damit vom Augustinischen Rätsel oder der Newtonschen Vorstellung einer absoluten Zeit, deren mathematischen Fluss man durch irdische Instrumente eh immer nur näherungsweise erfassen kann.
In der Alltagssprache, selbst in den Wissenschaften, reden wir zwar weiterhin vom Fluss der Zeit, aber Zeit ist schon lange keine natürliche Gegebenheit mehr. Zeit ist vielmehr ein konventioneller Ordnungsparameter für Änderung und Bewegung. Geordnet werden Prozesse, indem eine Klasse von Prozessen als Zählsystem dient, um andere Prozesse mit ihnen zu vergleichen und anhand der temporären Kategorien „vorher“, „während“ und „nachher“ anzuordnen.
Zu Galileis Zeiten galt der eigene Pulsschlag als Zeitstandard für den Flug von Kanonenkugeln. Mit zunehmender Verfeinerung der Untersuchungsmethoden erschien das zu unpraktisch: Die Weg-Zeit-Diagramme frei fliegender Kanonenkugeln erweisen sich in diesem Standard ziemlich verwackelt, schlecht reproduzierbar, und keineswegs „simpel“. Heutzutage greift man zu Cäsium-Atomen. Demnach dauert ein Prozess eine Sekunde, wenn ein 133Cs-Atom genau 9 192 631 770 Schwingungen zwischen zwei sogenannten Hyperfeinzuständen des Grundzustands vollführt hat. Und ein Meter ist die Entfernung, die Licht im Vakuum in exakt 1/299 792 458 Sekunden zurücklegt. Glücklicherweise sind diese Daten im General Positioning System GPS hart kodiert, so dass der Nutzer sie nicht jedes Mal aufs Neue eingeben muss, wenn er wissen will, wo er ist. Aber schon morgen muss er sich vielleicht ein Applet runterladen, weil der Zeitstandard durch raffinierte Übergänge in Ytterbium ersetzt wurde.
Der konventionelle Charakter des Zeitbegriffs sollte nicht dazu verführen zu glauben, alles sei irgendwie relativ und daher willkürlich. Die Beziehung eines Pulsschlags zu einer Atomuhr ist absolut, und genauso real, wie die Beziehung einer Sanduhr zum Lauf der Sonne. Die exakten Wissenschaften sind Beziehungswissenschaften. Sie handeln nicht vom Ding an sich, was Newton und Kant noch geträumt haben, sondern von Beziehungen – worauf schon Leibniz und später Mach hingewiesen haben.
Kein Wunder, dass sich für andere Wissenschaften der physikalische Zeit-Standard als ziemlich unpraktisch erweist. Der Psychologie der Zeitwahrnehmung entnehmen wir – und jeder wird das bestätigen können – dass das gefühlte Alter durchaus verschieden ist vom physikalischen Alter. Je älter man ist, desto kürzer erscheinen einem die Jahre.
Unter der einfachen Annahme, dass die gefühlte Dauer umgekehrt proportional zum physikalischen Alter ist, und man als Zwanzigjähriger ein physikalisches Jahr auch psychologisch als ein Jahr empfindet, ergibt sich der erstaunliche Befund, dass man mit 90 Jahren 90 Jahre ist. Und – bei einer angenommenen Lebenserwartung von 90 Jahren – mit 20 (bzw. 40) physikalischen Jahren bereits 67 (bzw. 82) Prozent seiner gefühlten Lebenszeit hinter sich hat.
Bevor man angesichts der „Relativität von Zeit“ selbst in Melancholie versinkt, vielleicht die Fortsetzung des Eingangszitats von Augustinus: „Aber zuversichtlich behaupte ich zu wissen, dass es vergangene Zeit nicht gäbe, wenn nichts verginge, und nicht künftige Zeit, wenn nichts herankäme, und nicht gegenwärtige Zeit wenn nichts seiend wäre.“ Tja – oder mit Bob Dylan „The times they're a changing“.
Ich wünsche Ihnen eine spannende Zeit bei der Lektüre dieser Ausgabe.
Prof. Dr. Martin Wilkens
Professor für Quantenoptik
Ausprägungen räumlicher Identität in ehemaligen sudetendeutschen Gebieten der Tschechischen Republik
(2014)
Das tschechische Grenzgebiet ist eine der Regionen in Europa, die in der Folge des Zweiten Weltkrieges am gravierendsten von Umbrüchen in der zuvor bestehenden Bevölkerungsstruktur betroffen waren. Der erzwungenen Aussiedlung eines Großteils der ansässigen Bevölkerung folgten die Neubesiedlung durch verschiedenste Zuwanderergruppen sowie teilweise langanhaltende Fluktuationen der Einwohnerschaft. Die Stabilisierung der Bevölkerung stand sodann unter dem Zeichen der sozialistischen Gesellschafts- und Wirtschaftsordnung, die die Lebensweise und Raumwahrnehmung der neuen Einwohner nachhaltig prägte. Die Grenzöffnung von 1989, die politische Transformation sowie die Integration der Tschechischen Republik in die Europäische Union brachten neue demographische und sozioökonomische Entwicklungen mit sich. Sie schufen aber auch die Bedingungen dafür, sich neu und offen auch mit der spezifischen Geschichte des ehemaligen Sudetenlandes sowie mit dem Zustand der gegenwärtigen Gesellschaft in diesem Gebiet auseinanderzusetzen.
Im Rahmen der vorliegenden Arbeit wird anhand zweier Beispielregionen untersucht, welche Raumvorstellungen und Raumbindungen bei der heute in den ehemaligen sudetendeutschen Gebieten ansässigen Bevölkerung vorhanden sind und welche Einflüsse die unterschiedlichen raumstrukturellen Bedingungen darauf ausüben. Besonderes Augenmerk wird auf die soziale Komponente der Ausprägung räumlicher Identität gelegt, das heißt auf die Rolle von Bedeutungszuweisungen gegenüber Raumelementen im Rahmen sozialer Kommunikation und Interaktion. Dies erscheint von besonderer Relevanz in einem Raum, der sich durch eine gewisse Heterogenität seiner Einwohnerschaft hinsichtlich ihres ethnischen, kulturellen beziehungsweise biographischen Hintergrundes auszeichnet. Schließlich wird ermittelt, welche Impulse unter Umständen von einer ausgeprägten räumlichen Identität für die Entwicklung des Raumes ausgehen.
Moderne Kraftfahrzeuge verfügen über eine Vielzahl an Sensoren, welche für einen reibungslosen technischen Betrieb benötigt werden. Hierzu zählen neben fahrzeugspezifischen Sensoren (wie z.B. Motordrehzahl und Fahrzeuggeschwindigkeit) auch umweltspezifische Sensoren (wie z.B. Luftdruck und Umgebungstemperatur). Durch die zunehmende technische Vernetzung wird es möglich, diese Daten der Kraftfahrzeugelektronik aus dem Fahrzeug heraus für die verschiedensten Zwecke zu verwenden.
Die vorliegende Arbeit soll einen Beitrag dazu leisten, diese neue Art an massenhaften Daten im Sinne des Konzepts der „Extended Floating Car Data“ (XFCD) als Geoinformationen nutzbar zu machen und diese für raumzeitliche Visualisierungen (zur visuellen Analyse) anwenden zu können. In diesem Zusammenhang wird speziell die Perspektive des Umwelt- und Verkehrsmonitoring betrachtet, wobei die Anforderungen und Potentiale mit Hilfe von Experteninterviews untersucht werden. Es stellt sich die Frage, welche Daten durch die Kraftfahrzeugelektronik geliefert und wie diese möglichst automatisiert erfasst, verarbeitet, visualisiert und öffentlich bereitgestellt werden können. Neben theoretischen und technischen Grundlagen zur Datenerfassung und -nutzung liegt der Fokus auf den Methoden der kartographischen Visualisierung. Dabei soll der Frage nachgegangenen werden, ob eine technische Implementierung ausschließlich unter Verwendung von Open Source Software möglich ist. Das Ziel der Arbeit bildet ein zweigliedriger Ansatz, welcher zum einen die Visualisierung für ein exemplarisch gewähltes Anwendungsszenario und zum anderen die prototypische Implementierung von der Datenerfassung im Fahrzeug unter Verwendung der gesetzlich vorgeschriebenen „On Board Diagnose“-Schnittstelle und einem Smartphone-gestützten Ablauf bis zur webbasierten Visualisierung umfasst.
Dieser Artikel adressiert zwei bisher nur wenig untersuchte Aspekte der Führungsforschung: Führungsverhalten im öffentlichen Sektor und Faktoren die Führungsverhalten beeinflussen. Mittels einer Fallstudie in der Bundesagentur für Arbeit werden explorativ Hypothesen über Einflussfaktoren des Führungsverhaltens aufgestellt. Die Studie kommt zu der Erkenntnis, dass eine oftmals angenommene Führungslücke im öffentlichen Sektor nicht bestätigt werden kann. Für das ausgeprägte Führungsverhalten, das in der Fallstudie beobachtet wurde, wird als Determinante die besondere Ausgestaltung des Managementsystems der Bundesagentur für Arbeit verantwortlich gemacht. Dazu gehört unter anderem das Performance Management System sowie die Führungskräfteauswahl und -entwicklung. Die Arbeit schließt mit Empfehlungen für weitere Forschungsansätze auf dem Gebiet der Führungsforschung im öffentlichen Sektor.
Organische Halbleiter besitzen neue, bemerkenswerte Materialeigenschaften, die sie für die grundlegende Forschung wie auch aktuelle technologische Entwicklung (bsw. org. Leuchtdioden, org. Solarzellen) interessant werden lassen. Aufgrund der starken konformative Freiheit der konjugierten Polymerketten führt die Vielzahl der möglichen Anordnungen und die schwache intermolekulare Wechselwirkung für gewöhnlich zu geringer struktureller Ordnung im Festkörper. Die Morphologie hat gleichzeitig direkten Einfluss auf die elektronische Struktur der organischen Halbleiter, welches sich meistens in einer deutlichen Reduktion der Ladungsträgerbeweglichkeit gegenüber den anorganischen Verwandten zeigt. So stellt die Beweglichkeit der Ladungen im Halbleiter einen der limitierenden Faktoren für die Leistungsfähigkeit bzw. den Wirkungsgrad von funktionellen organischen Bauteilen dar. Im Jahr 2009 wurde ein neues auf Naphthalindiimid und Bithiophen basierendes Dornor/Akzeptor Copolymer vorgestellt [P(NDI2OD‑T2)], welches sich durch seine außergewöhnlich hohe Ladungsträgermobilität auszeichnet. In dieser Arbeit wird die Ladungsträgermobilität in P(NDI2OD‑T2) bestimmt, und der Transport durch eine geringe energetischer Unordnung charakterisiert. Obwohl dieses Material zunächst als amorph beschrieben wurde zeigt eine detaillierte Analyse der optischen Eigenschaften von P(NDI2OD‑T2), dass bereits in Lösung geordnete Vorstufen supramolekularer Strukturen (Aggregate) existieren. Quantenchemische Berechnungen belegen die beobachteten spektralen Änderungen. Mithilfe der NMR-Spektroskopie kann die Bildung der Aggregate unabhängig von optischer Spektroskopie bestätigt werden. Die Analytische Ultrazentrifugation an P(NDI2OD‑T2) Lösungen legt nahe, dass sich die Aggregation innerhalb der einzelnen Ketten unter Reduktion des hydrodynamischen Radius vollzieht. Die Ausbildung supramolekularen Strukturen nimmt auch eine signifikante Rolle bei der Filmbildung ein und verhindert gleichzeitig die Herstellung amorpher P(NDI2OD‑T2) Filme. Durch chemische Modifikation der P(NDI2OD‑T2)-Kette und verschiedener Prozessierungs-Methoden wurde eine Änderung des Kristallinitätsgrades und gleichzeitig der Orientierung der kristallinen Domänen erreicht und mittels Röntgenbeugung quantifiziert. In hochauflösenden Elektronenmikroskopie-Messungen werden die Netzebenen und deren Einbettung in die semikristallinen Strukturen direkt abgebildet. Aus der Kombination der verschiedenen Methoden erschließt sich ein Gesamtbild der Nah- und Fernordnung in P(NDI2OD‑T2). Über die Messung der Elektronenmobilität dieser Schichten wird die Anisotropie des Ladungstransports in den kristallographischen Raumrichtungen von P(NDI2OD‑T2) charakterisiert und die Bedeutung der intramolekularen Wechselwirkung für effizienten Ladungstransport herausgearbeitet. Gleichzeitig wird deutlich, wie die Verwendung von größeren und planaren funktionellen Gruppen zu höheren Ladungsträgermobilitäten führt, welche im Vergleich zu klassischen semikristallinen Polymeren weniger sensitiv auf die strukturelle Unordnung im Film sind.
Diese Arbeit befasst sich mit den sogenannten relativähnlichen Sätzen im Frühneuhochdeutschen und leistet somit einen Beitrag zur Subordinationsforschung des älteren Deutsch. Relativähnliche Sätze sind formal durch ein satzinitiales anaphorisches d-Element und die Endstellung des finiten Verbs gekennzeichnet. Semantisch gesehen beziehen sie sich auf den vorangehenden Satz als Ganzes, indem sie ihn in bestimmter Weise weiterführen oder kommentieren. In der bisherigen Forschung werden diese Sätze satztypologisch als Hauptsätze mit Verbendstellung analysiert (vgl. dazu Maurer 1926, Behaghel 1932 und Lötscher 2000). Nach der ausführlichen Diskussion der formalen Abhängigkeitsmarker im älteren Deutsch sowie anhand einer umfangreichen korpusbasierten Untersuchung wird in dieser Arbeit gezeigt, dass relativähnliche Sätze im Frühneuhochdeutschen auch als abhängige Sätze - analog zu den weiterführenden Relativsätzen im Gegenwartsdeutschen - analysiert werden können. Die weiterführenden Relativsätze im Gegenwartsdeutschen enthalten satzinitial auch ein anaphorisches Element, das sich auf das Gesagte in dem vorangehenden Satz bezieht. Verbendstellung weisen sie ebenfalls auf (mehr zur Grammatik der weiterführenden Relativsätze vgl. insb. Brandt 1990 und Holler 2005). Über die Untersuchung relativähnlicher Sätze hinaus befasst sich diese Arbeit ausführlich mit formalen Abhängigkeitsmarkern des älteren Deutsch, wie Verbendstellung, Einleiter und afinite Konstruktion.
Die Häufung von Diabetes, Herz-Kreislauf-Erkrankungen und einigen Krebsarten, deren Entstehung auf Übergewicht und Bewegungsmangel zurückzuführen sind, ist ein aktuelles Problem unserer Gesellschaft. Insbesondere mit fortschreitendem Alter nehmen die damit einhergehenden Komplikationen zu. Umso bedeutender ist das Verständnis der pathologischen Mechanismen in Folge von Adipositas, Bewegungsmangel, des Alterungsprozesses und den Einfluss-nehmenden Faktoren.
Ziel dieser Arbeit war die Entstehung metabolischer Erkrankungen beim Menschen zu untersuchen. Die Auswertung von Verlaufsdaten anthropometrischer und metabolischer Parameter der 584 Teilnehmern der prospektiven ‚Metabolisches Syndrom Berlin Potsdam Follow-up Studie‘ wies für die gesamte Kohorte einen Anstieg an Übergewicht, ebenso eine Verschlechterung des Blutdrucks und des Glukosestoffwechsels auf. Wir untersuchten, ob das Hormon FGF21 Einfluss an dem Auftreten eines Diabetes mellitus Typ 2 (T2DM) oder des Metabolischen Syndroms (MetS) hat. Wir konnten zeigen, dass Personen, die später ein MetS entwickeln, bereits zu Studienbeginn einen erhöhten FGF21-Spiegel, einen höheren BMI, WHR, Hb1Ac und diastolischen Blutdruck aufwiesen. Neben FGF21 wurde auch Vaspin in diesem Zusammenhang untersucht. Es zeigte sich, dass Personen, die später einen T2DM entwickeln, neben einer Erhöhung klinischer Parameter tendenziell erhöhte Spiegel des Hormons aufwiesen. Mit FGF21 und Vaspin wurden hier zwei neue Faktoren für die Vorhersage des Metabolischen Syndroms bzw. Diabetes mellitus Typ 2 identifiziert.
Der langfristige Effekt einer Gewichtsreduktion wurde in einer Subkohorte von 60 Personen untersucht. Der überwiegende Teil der Probanden mit Gewichtsabnahme-Intervention nahm in der ersten sechsmonatigen Phase erfolgreich ab. Jedoch zeigte sich ein deutlicher Trend zur Wiederzunahme des verlorenen Gewichts über den Beobachtungszeitraum von fünf Jahren. Von besonderem Interesse war die Abschätzung des kardiovaskulären Risikos über den Framingham Score. Es wurde deutlich, dass für Personen mit konstanter Gewichtsabnahme ein deutlich geringeres kardiovaskuläres Risiko bestand. Hingegen zeigten Personen mit konstanter Wiederzunahme oder starken Gewichtsschwankungen ein hohes kardiovaskuläres Risiko. Unsere Daten legten nahe, dass eine erfolgreiche dauerhafte Gewichtsreduktion statistisch mit einem erniedrigten kardiovaskulären Risiko assoziiert ist, während Probanden mit starken Gewichtsschwankungen oder einer Gewichtszunahme ein gesteigertes Risiko haben könnten.
Um die Interaktion der molekularen Vorgänge hinsichtlich der Gewichtsreduktion und Lebensspanne untersuchen zu können, nutzen wir den Modellorganismus C.elegans. Eine kontinuierliche Restriktion wirkte sich verlängernd, eine Überversorgung verkürzend auf die Lebensspanne des Rundwurms aus. Der Einfluss eines zeitlich eingeschränkten, intermittierenden Nahrungsregimes, analog zum Weight-Cycling im Menschen, auf die Lebensspanne war von großem Interesse. Dieser regelmäßige Wechsel zwischen ad libitum Fütterung und Restriktion hatte in Abhängigkeit von der Häufigkeit der Restriktion einen unterschiedlich starken lebensverlängernden Effekt. Phänomene, wie Gewichtswiederzunahmen, sind in C.elegans nicht zu beobachten und beruhen vermutlich auf einem Mechanismus ist, der evolutionär jünger und in C.elegans noch nicht angelegt ist.
Um neue Stoffwechselwege zu identifizieren, die die Lebensspanne beeinflussen, wurden Metabolitenprofile genetischer als auch diätetischer Langlebigkeitsmodelle analysiert. Diese Analysen wiesen den Tryptophan-Stoffwechsel als einen neuen, bisher noch nicht im Fokus stehenden Stoffwechselweg aus, der mit Langlebigkeit in Verbindung steht.
Schlucken ist ein lebensnotwendiger Prozess, dessen Diagnose und Therapie eine enorme Herausforderung bedeutet. Die Erkennung und Beurteilung von Schlucken und Schluckstörungen erfordert den Einsatz von technisch aufwendigen Verfahren, wie Videofluoroskopie (VFSS) und fiberoptisch-endoskopische Schluckuntersuchung (FEES), die eine hohe Belastung für die Patienten darstellen. Beide Verfahren werden als Goldstandard in der Diagnostik von Schluckstörungen eingesetzt. Die Durchführung obliegt in der Regel ärztlichem Personal. Darüber hinaus erfordert die Auswertung des Bildmaterials der Diagnostik eine ausreichend hohe Erfahrung. In der Therapie findet neben den klassischen Therapiemethoden, wie z.B. diätetische Modifikationen und Schluckmanöver, auch zunehmend die funktionelle Elektrostimulation Anwendung. Ziel der vorliegenden Dissertationsschrift ist die Evaluation eines im Verbundprojekt BigDysPro entwickelten Bioimpedanz (BI)- und Elektromyographie (EMG)-Messsystems. Es wurde geprüft, ob sich das BI- und EMG-Messsystem eignet, sowohl in der Diagnostik als auch in der Therapie als eigenständiges Messsystem und im Rahmen einer Schluckneuroprothese eingesetzt zu werden. In verschiedenen Studien wurden gesunde Probanden für die Überprüfung der Reproduzierbarkeit (Intra-und Interrater-Reliabilität), der Unterscheidbarkeit von Schluck- und Kopfbewegungen und der Beeinflussung der Biosignale (BI, EMG) durch verschiedene Faktoren (Geschlecht der Probanden, Leitfähigkeit, Konsistenz und Menge der Nahrung) untersucht. Durch zusätzliche Untersuchungen mit Patienten wurde einerseits der Einfluss der Elektrodenart geprüft. Andererseits wurden parallel zur BI- und EMG-Messung auch endoskopische (FEES) und radiologische Schluckuntersuchungen (VFSS) durchgeführt, um die Korrelation der Biosignale mit der Bewegung anatomischer Strukturen (VFSS) und mit der Schluckqualität (FEES) zu prüfen. Es wurden 31 gesunde Probanden mit 1819 Schlucken und 60 Patienten mit 715 Schlucken untersucht. Die Messkurven zeigten einen typischen, reproduzierbaren Signalverlauf, der mit anatomischen und funktionellen Änderungen während der pharyngalen Schluckphase in der VFSS korrelierte (r > 0,7). Aus dem Bioimpedanzsignal konnten Merkmale extrahiert werden, die mit physiologischen Merkmalen eines Schluckes, wie verzögerter laryngealer Verschluss und Kehlkopfhebung, korrelierten und eine Einschätzung der Schluckqualität in Übereinstimmung mit der FEES ermöglichten. In den Signalverläufen der Biosignale konnten signifikante Unterschiede zwischen Schluck- und Kopfbewegungen und den Nahrungsmengen und -konsistenzen nachgewiesen werden. Im Gegensatz zur Nahrungsmenge und -konsistenz zeigte die Leitfähigkeit der zu schluckenden Nahrung, das Geschlecht der Probanden und die Art der Elektroden keinen signifikanten Einfluss auf die Messsignale. Mit den Ergebnissen der Evaluation konnte gezeigt werden, dass mit dem BI- und EMG-Messsystem ein neuartiges und nicht-invasives Verfahren zur Verfügung steht, das eine reproduzierbare Darstellung der pharyngalen Schluckphase und ihrer Veränderungen ermöglicht. Daraus ergeben sich vielseitige Einsatzmöglichkeiten in der Diagnostik, z.B. Langzeitmessung zur Schluckfrequenz und Einschätzung der Schluckqualität, und in der Therapie, z.B. der Einsatz in einer Schluckneuroprothese oder als Biofeedback zur Darstellung des Schluckes, von Schluckstörungen.
Was wird unter „nachhaltiger Prävention“ in der Präventionsforschung verstanden? Welche guten Beispiele für nachhaltige Prävention gibt es in der Praxis? Und v. a.: Wie lässt sich Prävention in den verschiedenen Bereichen wie Kriminalität, Gewalt und Rechtsextremismus nachhaltig gestalten? Diesen Fragen will der vorliegende Sammelband nachgehen und damit der Präventionsdebatte neue Impulse verleihen. Der Band will insbesondere die nationale sowie internationale Fachdebatte konstruktiv aufgreifen, Theorie und Praxis verbinden, „good practice“ Beispiele darstellen sowie Perspektiven nachhaltiger Prävention aufzeigen. Mit diesem Themenspektrum richtet er sich sowohl an die Wissenschaft als auch an die Praxis sowie insgesamt an eine interessierte Öffentlichkeit.
Historisch wie aktuell werden durch gewalttätige soziale Auseinandersetzungen bestehende gesellschaftliche Ordnungen infrage gestellt. In der Geschichtswissenschaft wie in der Soziologie waren Tumulte, Aufstände oder soziale Erhebungen immer wieder Gegenstand von Untersuchungen. Während der historische Zugriff auf diese Phänomene gewöhnlich durch detaillierte Beschreibungen historische Abläufe genau zu rekonstruieren versucht hat, um diese verstehen zu können, geht es soziologischen Arbeiten zumeist um einen viel stärker generalisierenden und erklärenden Zugriff. Zwar gab es immer wieder Anläufe, diese scheinbar unüberbrückbare Differenz zwischen den Disziplinen zu überwinden, doch alle die Versuche müssen als mehr oder weniger gescheitert angesehen werden. Nach wie vor gilt deshalb, dass mit der ausschließlichen Konzentration auf die je eigene disziplinäre Herangehensweise viel Erkenntnispotenzial verschenkt wird. Aus diesem Grund unterbreitet die vorliegende Studie einen neuen Vorschlag, Geschichtswissenschaft und Soziologie zusammenzubringen. Der Verfasser unternimmt hier den Versuch, die beiden vermeintlich so gegensätzlichen Auffassungen von Wissenschaftlichkeit über eine gemeinsame methodologische Perspektive zusammenzuführen und auf dieser Grundlage einen vereinten, erklärenden Zugriff von Geschichtswissenschaft und Soziologie zu skizzieren, der nach dem „Wie“ eines Ereignisses fragt, zugleich aber auch erklären will, „warum“ es dazu gekommen ist. Das vorliegende Buch untersucht auf dieser methodologischen Grundlage und mittels eines historisch-soziologischen Zugangs sozialen Protest im Vormärz, es schließt an Arbeiten der historischen Soziologie und Sozialgeschichte an und entwickelt dazu einen stringenten historisch-soziologischen Erklärungsansatz.
Tierische und menschliche Fäkalien aus Landwirtschaft und Haushalten enthalten zahlreiche obligat und opportunistisch pathogene Mikroorganismen, deren Konzentration u. a. je nach Gesundheitszustand der betrachteten Gruppe schwankt. Neben den Krankheitserregern enthalten Fäkalien aber auch essentielle Pflanzennährstoffe (276) und dienen seit Jahrtausenden (63) als Dünger für Feldfrüchte. Mit der unbedarften Verwendung von pathogenbelastetem Fäkaldünger steigt jedoch auch das Risiko einer Infektion von Mensch und Tier. Diese Gefahr erhöht sich mit der globalen Vernetzung der Landwirtschaft, z. B. durch den Import von kontaminierten Futter- bzw. Lebensmitteln (29).
Die vorliegende Arbeit stellt die milchsaure Fermentation von Rindergülle und Klärschlamm als alternative Hygienisierungsmethode gegenüber der Pasteurisation in Biogasanlagen bzw. gebräuchlichen Kompostierung vor.
Dabei wird ein Abfall der Gram-negativen Bakterienflora sowie der Enterokokken, Schimmel- und Hefepilze unter die Nachweisgrenze von 3 log10KbE/g beobachtet, gleichzeitig steigt die Konzentration der Lactobacillaceae um das Tausendfache. Darüber hinaus wird gezeigt, dass pathogene Bakterien wie Staphylococcus aureus, Salmonella spp., Listeria monocytogenes, EHEC O:157 und vegetative Clostridum perfringens-Zellen innerhalb von 3 Tagen inaktiviert werden. Die Inaktivierung von ECBO-Viren und Spulwurmeiern erfolgt innerhalb von 7 bzw. 56 Tagen. Zur Aufklärung der Ursache der beobachteten Hygienisierung wurde das fermentierte Material auf flüchtige Fettsäuren sowie pH-Wertänderungen untersucht. Es konnte festgestellt werden, dass die gemessenen Werte nicht die alleinige Ursache für das Absterben der Erreger sind, vielmehr wird eine zusätzliche bakterizide Wirkung durch eine mutmaßliche Bildung von Bakteriozinen in Betracht gezogen. Die parasitizide Wirkung wird auf die physikalischen Bedingungen der Fermentation zurückgeführt.
Die methodischen Grundlagen basieren auf Analysen mittels zahlreicher klassisch-kultureller Verfahren, wie z. B. der Lebendkeimzahlbestimmung. Darüber hinaus findet die MALDI-TOF-Massenspektrometrie und die klassische PCR in Kombination mit der Gradienten-Gelelektrophorese Anwendung, um kultivierbare Bakterienfloren zu beschreiben bzw. nicht kultivierbare Bakterienfloren stichprobenartig zu erfassen.
Neben den Aspekten der Hygienisierung wird zudem die Eignung der Methode für die landwirtschaftliche Nutzung berücksichtigt. Dies findet sich insbesondere in der Komposition des zu fermentierenden Materials wieder, welches für die verstärkte Humusakkumulation im Ackerboden optimiert wurde. Darüber hinaus wird die Masseverlustbilanz während der milchsauren Fermentation mit denen der Kompostierung sowie der Verarbeitung in der Biogasanlage verglichen und als positiv bewertet, da sie mit insgesamt 2,45 % sehr deutlich unter den bisherigen Alternativen liegt (73, 138, 458). Weniger Verluste an organischem Material während der Hygienisierung führen zu einer größeren verwendbaren Düngermenge, die auf Grund ihres organischen Ursprungs zu einer Verstärkung des Humusanteiles im Ackerboden beitragen kann (56, 132).
Synchronisationsphänomene myotendinöser Oszillationen interagierender neuromuskulärer Systeme
(2014)
Muskeln oszillieren nachgewiesener Weise mit einer Frequenz um 10 Hz. Doch was geschieht mit myofaszialen Oszillationen, wenn zwei neuromuskuläre Systeme interagieren? Die Dissertation widmet sich dieser Fragestellung bei isometrischer Interaktion. Während der Testmessungen ergaben sich Hinweise für das Vorhandensein von möglicherweise zwei verschiedenen Formen der Isometrie. Arbeiten zwei Personen isometrisch gegeneinander, können subjektiv zwei Modi eingenommen werden: man kann entweder isometrisch halten – der Kraft des Partners widerstehen – oder isometrisch drücken – gegen den isometrischen Widerstand des Partners arbeiten. Daher wurde zusätzlich zu den Messungen zur Interaktion zweier Personen an einzelnen Individuen geprüft, ob möglicherweise zwei Formen der Isometrie existieren. Die Promotion besteht demnach aus zwei inhaltlich und methodisch getrennten Teilen: I „Single-Isometrie“ und II „Paar-Isometrie“. Für Teil I wurden mithilfe eines pneumatisch betriebenen Systems die hypothetischen Messmodi Halten und Drücken während isometrischer Aktion untersucht. Bei n = 10 Probanden erfolgte parallel zur Aufzeichnung des Drucksignals während der Messungen die Erfassung der Kraft (DMS) und der Beschleunigung sowie die Aufnahme der mechanischen Muskeloszillationen folgender myotendinöser Strukturen via Mechanomyo- (MMG) bzw. Mechanotendografie (MTG): M. triceps brachii (MMGtri), Trizepssehne (MTGtri), M. obliquus externus abdominis (MMGobl). Pro Proband wurden bei 80 % der MVC sowohl sechs 15-Sekunden-Messungen (jeweils drei im haltenden bzw. drückenden Modus; Pause: 1 Minute) als auch vier Ermüdungsmessungen (jeweils zwei im haltenden bzw. drückenden Modus; Pause: 2 Minuten) durchgeführt. Zum Vergleich der Messmodi Halten und Drücken wurden die Amplituden der myofaszialen Oszillationen sowie die Kraftausdauer herangezogen. Signifikante Unterschiede zwischen dem haltenden und dem drückenden Modus zeigten sich insbesondere im Bereich der Ermüdungscharakteristik. So lassen Probanden im haltenden Modus signifikant früher nach als im drückenden Modus (t(9) = 3,716; p = .005). Im drückenden Modus macht das längste isometrische Plateau durchschnittlich 59,4 % der Gesamtdauer aus, im haltenden sind es 31,6 % (t(19) = 5,265, p = .000). Die Amplituden der Single-Isometrie-Messungen unterscheiden sich nicht signifikant. Allerdings variieren die Amplituden des MMGobl zwischen den Messungen im drückenden Modus signifikant stärker als im haltenden Modus. Aufgrund dieser teils signifikanten Unterschiede zwischen den beiden Messmodi wurde dieses Setting auch im zweiten Teil „Paar-Isometrie“ berücksichtigt. Dort wurden n = 20 Probanden – eingeteilt in zehn gleichgeschlechtliche Paare – während isometrischer Interaktion untersucht. Die Sensorplatzierung erfolgte analog zu Teil I. Die Oszillationen der erfassten MTG- sowie MMG-Signale wurden u.a. mit Algorithmen der Nichtlinearen Dynamik auf ihre Kohärenz hin untersucht. Durch die Paar-Isometrie-Messungen zeigte sich, dass die Muskeln und die Sehnen beider neuromuskulärer Systeme bei Interaktion im bekannten Frequenzbereich von 10 Hz oszillieren. Außerdem waren sie in der Lage, sich bei Interaktion so aufeinander abzustimmen, dass sich eine signifikante Kohärenz entwickelte, die sich von Zufallspaarungen signifikant unterscheidet (Patchanzahl: t(29) = 3,477; p = .002; Summe der 4 längsten Patches: t(29) = 7,505; p = .000). Es wird der Schluss gezogen, dass neuromuskuläre Komplementärpartner in der Lage sind, sich im Sinne kohärenten Verhaltens zu synchronisieren. Bezüglich der Parameter zur Untersuchung der möglicherweise vorhandenen zwei Formen der Isometrie zeigte sich bei den Paar-Isometrie-Messungen zwischen Halten und Drücken ein signifikanter Unterschied bei der Ermüdungscharakteristik sowie bezüglich der Amplitude der MMGobl. Die Ergebnisse beider Teilstudien bestärken die Hypothese, dass zwei Formen der Isometrie existieren. Fraglich ist, ob man überhaupt von Isometrie sprechen kann, da jede isometrische Muskelaktion aus feinen Oszillationen besteht, die eine per Definition postulierte Isometrie ausschließen. Es wird der Vorschlag unterbreitet, die Isometrie durch den Begriff der Homöometrie auszutauschen. Die Ergebnisse der Paar-Isometrie-Messungen zeigen u.a., dass neuromuskuläre Systeme in der Lage sind, ihre myotendinösen Oszillationen so aufeinander abzustimmen, dass kohärentes Verhalten entsteht. Es wird angenommen, dass hierzu beide neuromuskulären Systeme funktionell intakt sein müssen. Das Verfahren könnte für die Diagnostik funktioneller Störungen relevant werden.
Die vorliegende Studie beschäftigte sich mit der Bedeutung der dysfunktionalen Einstellungen für die Entwicklung von depressiven Symptomen bei Kindern und Jugendlichen. Nach der kognitiven Theorie der Depression von Beck (1967, 1996) führen dysfunktionale Einstellungen in Interaktion mit Stress zu depressiven Symptomen. Es existieren allerdings nur wenige Studien, die die longitudinale Beziehung zwischen den dysfunktionalen Einstellungen und der Depressivität bei Kindern und Jugendlichen untersucht haben (Lakdawalla et al., 2007). Folglich kann noch nicht eindeutig geklärt werden, ob die dysfunktionalen Einstellungen Ursache, Begleiterscheinung oder Konsequenz der Depression sind. Als Datengrundlage diente eine Stichprobe von Kindern und Jugendlichen im Alter von 9 bis 20 Jahren, die im Rahmen der PIER-Studie zu dysfunktionalen Einstellungen, kritischen Lebensereignissen und depressiven Symptomen befragt wurden (Nt1t2 = 1.053; t1: 2011/2012, t2: 2013/2014). Querschnittliche Analysen zeigten hohe Assoziationen zwischen den dysfunktionalen Einstellungen, kritischen Lebensereignissen und depressiven Symptomen. Eine latente Moderationsanalyse wies nur bei den Jugendlichen auf signifikante Interaktion zwischen den dysfunktionalen Einstellungen und den kritischen Lebensereignissen in der Vorhersage depressiver Symptomatik hin. Im Längsschnitt zeigten latente Cross-Lagged-Panel-Analysen erwartungsgemäß, dass die dysfunktionalen Einstellungen und die Depressivität mit dem Alter immer stabilere Konstrukte darstellen, die sehr eng miteinander zusammenhängen. Eine diesem Modell hinzugefügte latente Moderationsanalyse konnte das kognitive Modell der Depression nach Beck weder bei Kindern noch bei Jugendlichen bestätigen. Die spätere depressive Symptomatik konnte lediglich durch Haupteffekte der früheren Ausprägung der Depressivität und der kritischen Lebensereignisse vorhergesagt werden. Diese Ergebnisse legen den Schluss nahe, dass es sich bei den dysfunktionalen Einstellungen eher um Begleiterscheinungen als um Risikofaktoren oder Konsequenzen der depressiven Symptomatik handelt.
Ziel dieser Arbeit war die Entwicklung von Methoden zur Synthese von auf Phenol basierenden Naturstoffen. Insbesondere wurde bei der Methodenentwicklung die Nachhaltigkeit in den Vordergrund gerückt. Dies bedeutet, dass durch die Zusammenfassung mehrerer Syntheseschritte zu einem (Tandem-Reaktion) beispielsweise unnötige Reaktionsschritte vermieden werden sollten. Ferner sollten im Sinne der Nachhaltigkeit möglichst ungiftige Reagenzien und Lösungmittel verwendet werden, ebenso wie mehrfach wiederverwertbare Katalysatoren zum Einsatz kommen. Im Rahmen dieser Arbeit wurden Methoden zum Aufbau von Biphenolen mittels Pd/C-katalysierten Suzuki-Miyaura-Kupplungen entwickelt. Diese Methoden sind insofern äußerst effizient, da der ansonsten gebräuchliche Syntheseweg über drei Reaktionsschritte somit auf lediglich eine Reaktionsstufe reduziert wurde. Weiterhin wurden die Reaktionsbedingungen so gestaltet, dass einfaches Wasser als vollkommen ungiftiges Lösungsmittel verwendet werden konnte. Des Weiteren wurde für diese Reaktionen ein Katalysator gewählt, der einfach durch Filtration vom Reaktionsgemisch abgetrennt und für weitere Reaktionen mehrfach wiederverwendet werden konnte. Darüber hinaus konnte durch die Synthese von mehr als 100 Verbindungen die breite Anwendbarkeit der Methoden aufgezeigt werden. Mit den entwickelten Methoden konnten 14 Naturstoffe - z. T. erstmals - synthetisiert werden. Derartige Stoffe werden u. a. von den ökonomisch bedeutenden Kernobstgewächsen (Äpfeln, Birnen) als Abwehrmittel gegenüber Schädlingen erzeugt. Folglich konnte mit Hilfe dieser Methoden ein Syntheseweg für potentielle Pflanzenschutzmittel entwickelt werden. Im zweiten Teil dieser Arbeit wurde ein Zugang zu den sich ebenfalls vom Phenol ableitenden Chromanonen, Chromonen und Cumarinen untersucht. Bei diesen Untersuchungen konnte durch die Entwicklung zweier neuer Tandem-Reaktionen ein nachhaltiger und stufenökonomischer Syntheseweg zur Darstellung substituierter Benzo(dihydro)pyrone aufgezeigt werden. Durch die erstmalige Kombination der Claisen-Umlagerung mit einer Oxa-Michael-Addition bzw. konjugierten-Addition wurden zwei vollkommen atomökonomische Reaktionen miteinander verknüpft und somit eine überaus effiente Synthese von allyl- bzw. prenylsubstituierten Chromanonen und Chromonen ermöglicht. Ferner konnten durch die Anwendung einer Claisen-Umlagerung-Wittig-Laktonisierungs-Reaktion allyl- bzw. prenylsubstituierte Cumarine erhalten werden. Herausragendes Merkmal dieser Methoden war, dass in nur einem Schritt der jeweilige Naturstoffgrundkörper aufgebaut und eine lipophile Seitenkette generiert werden konnte. Die Entwicklung dieser Methoden ist von hohem pharmazeutischem Stellenwert, da auf diesen Wegen Verbindungen synthetisiert werden können, die zum einem über das notwendige pharmakologische Grundgerüst verfügen und zum anderen über eine Seitenkette, welche die Aufnahmefähigkeit und damit die Wirksamkeit im Organismus beträchtlich erhöht. Insgesamt konnten mittels der entwickelten Methoden 15 Chromanon-, Chromon- und Cumarin-Naturstoffe z. T. erstmals synthetisiert werden.
Das Europäische Parlament ist zweifelsohne die mächtigste parlamentarische Versammlung auf supranationaler Ebene. Das provoziert die Frage, wie Entscheidungen in diesem Parlament gefällt werden und wie sie begründet werden können. Darin liegt das Hauptanliegen dieser Arbeit, die zur Beantwortung dieser Frage auf soziologische Ansätze der Erklärung sozialen Handelns zurückgreift und damit einen neuen Zugang zur Beobachtung parlamentarischen Handelns schafft. Dabei arbeitet sie heraus, wie wichtig es ist, bei der Analyse politischer Entscheidungsprozesse zu beachten, wie politische Probleme von Akteuren interpretiert und gegenüber Verhandlungspartnern dargestellt werden. An den Fallbeispielen der Entscheidungsprozesse zur Dienstleistungsrichtlinie, zur Chemikalien-Verordnung REACH und dem TDIP (CIA)-Ausschuss in der Legislaturperiode 2004–2009, wird der soziale Mechanismus dargestellt, der hinter Einigungen im Europäischen Parlament steckt. Kultur als Interpretation der Welt wird so zum Schlüssel des Verständnisses politischer Entscheidungen auf supranationaler Ebene.
In der Berufsgruppe der Lehrerinnen und Lehrer besteht eine hohe Prävalenz psychischer und psychosomatischer Erkrankungen. Aus- und Weiterbildungsangebote zur Vermittlung lehrerspezifischer sozialer Kompetenzen spielen eine wichtige Rolle bei der Förderung der Lehrergesundheit. In der vorliegenden Studie wurde das „Lehrer/innen-Coaching nach dem Freiburger Modell“ evaluiert, welches die Kompetenz von Lehrkräften stärken soll, innerhalb der Schule und insbesondere im Unterricht, schwierige interpersonelle Situationen aktiv und konstruktiv zu gestalten. Damit sollen stressbedingte gesundheitliche Belastungen abgebaut und dem Entstehen gravierender psychischer Störungen vorgebeugt werden. In der vorliegenden Arbeit werden zwei modifizierte Versionen dieses Programms erstmalig im Rahmen einer landesweiten Feldstudie untersucht. Die zentralen Evaluationsfragestellungen beziehen sich auf die Effektivität der Intervention als Gesundheitsförderungsmaßnahme (Akzeptanz, Wirksamkeit, Wirksamkeitsvergleich der beiden Interventionsformen im landesweiten Einsatz). Daneben strebt die Studie einen Vergleich mit den Ergebnissen einer Vorgängerstudie sowie die Generierung weiterer Erkenntnisse zum Zusammenhang zwischen Aspekten der sozialen Kompetenz von Lehrkräften und ihrer psychischen Gesundheit an. An der Maßnahme konnten alle baden-württembergischen Lehrerinnen und Lehrer mit einer Berufserfahrung von mindestens 10 Jahren teilnehmen. Für die Untersuchung der Wirksamkeit der Maßnahme und des Wirksamkeitsvergleichs der beiden unterschiedlichen Formen liegt ein quasiexperimentelles Design mit insgesamt zwei Messzeitpunkten vor. In die Auswertung zur Wirksamkeit der Intervention konnten die Daten von den 314 Teilnehmern einbezogen werden. Die Messinstrumente, die in der vorliegenden Studie zur Anwendung kamen, waren der General Health Questionnaire (GHQ-12), das Maslach Burnout Inventory (MBI-D) und die ins Deutsche übersetzte Jefferson Scale of Empathy (JSE) in der an Lehrer adaptierten Form. Die Evaluationsergebnisse zeigen, dass die Teilnahme am „Lehrer/innen-Coaching nach dem Freiburger Modell” mit einer signifikanten Verbesserung der gesundheitsbezogenen abhängigen Variablen einhergeht. Besonders hervorzuheben ist die ausgeprägte Verbesserung der mittels GHQ-12 erfassten psychischen Gesundheit. Das Ergebnis des Prä-Post-Vergleichs der Gesundheitswerte beider Interventionsgruppen bestätigte sich auch im Vergleich zu einer Null-Interventionsgruppe: Entsprechend der Hypothese gab es bei den Teilnehmern eine signifikant stärkere Verbesserung der psychischen Gesundheit als bei den Nicht-Teilnehmern (Null-Interventionsgruppe). Die beiden Interventionsmodi „Kompaktform” und „Kurzform” erwiesen sich im Hinblick auf die Verbesserung der Lehrergesundheit als gleichermaßen wirksam. Zudem zeigen die Ergebnisse der Teilnehmerbefragung, dass die Maßnahme Anklang bei der Zielgruppe fand. Die Akzeptanz durch die Zielgruppe ist für die Wirksamkeit einer auf Freiwilligkeit basierenden verhaltenspräventiven Maßnahme naturgemäß eine essenzielle Voraussetzung. Bei der psychischen Gesundheit der Lehrer bestehen – wie aus weiteren Befunden der Studie ersichtlich – bedeutsame Zusammenhänge zu einer intakten zwischenmenschlichen Beziehung mit den Schülern, einer gelungenen, durch gegenseitige Unterstützung gekennzeichneten Interaktion im Kollegium und einem entsprechend unterstützenden Führungsverhalten der Schulleitung. Dies macht deutlich, welches besondere Gewicht einer gelingenden Beziehungsgestaltung an Schulen und im Unterricht beizumessen ist. Bezüglich der Vorgehensweise in der vorliegenden Untersuchung werden einige methodische Limitationen hinsichtlich des Designs diskutiert. Ergänzend wird im Ausblick der Evaluationsstudie darauf hingewiesen, wie sich durch die Verknüpfung des vorliegenden Programms mit weiteren, auf den Ebenen Verhalten, Verhältnisse und Führung ansetzenden gesundheitspräventiven Maßnahmen, zukünftig die Stärkung der psychischen Gesundheit von Lehrkräften weiter ausbauen ließe.
Werner Mittenzwei’s article of 1967, the title of which coined the term “Brecht-Lukács-Debatte”, is widely considered as a milestone in the development of East German literary criticism towards an “emancipation” from party politics. By placing Mittenzwei’s contribution in the wider context of discussions about the literature of the GDR, within the SED and the writers’ union as well as at international conferences, this article attempts to trace the emergence of “Umfunktionierung” both as a key term and in its official approval by the party.
Unstetige Galerkin-Diskretisierung niedriger Ordnung in einem atmosphärischen Multiskalenmodell
(2014)
Die Dynamik der Atmosphäre der Erde umfasst einen Bereich von mikrophysikalischer Turbulenz über konvektive Prozesse und Wolkenbildung bis zu planetaren Wellenmustern. Für Wettervorhersage und zur Betrachtung des Klimas über Jahrzehnte und Jahrhunderte ist diese Gegenstand der Modellierung mit numerischen Verfahren. Mit voranschreitender Entwicklung der Rechentechnik sind Neuentwicklungen der dynamischen Kerne von Klimamodellen, die mit der feiner werdenden Auflösung auch entsprechende Prozesse auflösen können, notwendig. Der dynamische Kern eines Modells besteht in der Umsetzung (Diskretisierung) der grundlegenden dynamischen Gleichungen für die Entwicklung von Masse, Energie und Impuls, so dass sie mit Computern numerisch gelöst werden können. Die vorliegende Arbeit untersucht die Eignung eines unstetigen Galerkin-Verfahrens niedriger Ordnung für atmosphärische Anwendungen. Diese Eignung für Gleichungen mit Wirkungen von externen Kräften wie Erdanziehungskraft und Corioliskraft ist aus der Theorie nicht selbstverständlich. Es werden nötige Anpassungen beschrieben, die das Verfahren stabilisieren, ohne sogenannte „slope limiter” einzusetzen. Für das unmodifizierte Verfahren wird belegt, dass es nicht geeignet ist, atmosphärische Gleichgewichte stabil darzustellen. Das entwickelte stabilisierte Modell reproduziert eine Reihe von Standard-Testfällen der atmosphärischen Dynamik mit Euler- und Flachwassergleichungen in einem weiten Bereich von räumlichen und zeitlichen Skalen. Die Lösung der thermischen Windgleichung entlang der mit den Isobaren identischen charakteristischen Kurven liefert atmosphärische Gleichgewichtszustände mit durch vorgegebenem Grundstrom einstellbarer Neigung zu(barotropen und baroklinen)Instabilitäten, die für die Entwicklung von Zyklonen wesentlich sind. Im Gegensatz zu früheren Arbeiten sind diese Zustände direkt im z-System(Höhe in Metern)definiert und müssen nicht aus Druckkoordinaten übertragen werden.Mit diesen Zuständen, sowohl als Referenzzustand, von dem lediglich die Abweichungen numerisch betrachtet werden, und insbesondere auch als Startzustand, der einer kleinen Störung unterliegt, werden verschiedene Studien der Simulation von barotroper und barokliner Instabilität durchgeführt. Hervorzuheben ist dabei die durch die Formulierung von Grundströmen mit einstellbarer Baroklinität ermöglichte simulationsgestützte Studie des Grades der baroklinen Instabilität verschiedener Wellenlängen in Abhängigkeit von statischer Stabilität und vertikalem Windgradient als Entsprechung zu Stabilitätskarten aus theoretischen Betrachtungen in der Literatur.
1. Einführung
2. Kriminalität, Gewalt und Rechtsextremismus: Begriffsgenese und Modell „nachhaltiger Prävention“
2.1 Entwicklungsorientierung
2.2 Kommunale Netzwerkarbeit
2.3 Evaluation und Qualität
3. Kriminal- und Gewaltprävention im Land Brandenburg
3.1 Gewaltprävention an einer Brennpunkt-Schule am Beispiel von „Wir für uns“
3.2 Regionale Netzwerkarbeit am Beispiel von „Mit-Ein-Ander in Kita und Schule“
3.3 Rechtsextremismusprävention am Beispiel des Handlungskonzepts „Tolerantes Brandenburg“
4. Folgerungen und Empfehlungen
Literatur
Der Begriff Altruismus geht auf Auguste Comte, den Gründer der Soziologie zurück. Es bezeichnet zugleich Uneigennütziges als auch selbstloses Verhalten von Individuen und wird daher oft dem egoistischen Verhalten gegenübergestellt. Die zahlreichen Anhänger des rationalen-egoistischem Paradigma lehnen die Idee der altruistischen Natur des Menschen meist ab, wohingegen die Anhänger des Altruismus nicht nur schwerer zu finden sind, sondern vor allem die Idee einer rein egoistischen Natur ablehnen. Diese Arbeit untersucht die Altruismus-Begriffe der Soziologen Emile Durkheim und James Coleman, welche die Kontroverse zwischen den unterschiedlichen Paradigmen wiederspiegeln. Ziel dieser Arbeit wird es sein, die unterschiedlichen Altruismus-Konzepte von Durkheim und Coleman zunächst vorzustellen, anschließend einander gegenüberzustellen und darauf folgend zu untersuchen, welche Auswirkung ihre unterschiedlichen Weltanschauungen, Prämissen und Methodologien auf ihr Verständnis von der Logik des selbstlosen Gebens haben. Durch den Vergleich soll versucht werden die Grenzen beider Theorien aufzuzeigen und damit auch ein Ausweg aus dem methodologischem Disput, welcher folglich zur Überwindung der Altruismus-Egoismus Kontroverse beitragen soll.
The system of German capitalisation seems to be based on dissimilar levels of linguistic description, i. e. semantics, morphology, and syntax. This leads to several competing scientific models as well as a large range of different rules which appear to be widely autonomous and incompatible with each other. This paper opens an integrative view on the topic by focussing on a pragmatic perspective, which is capable not only on integrating all major application areas of German capitalisation but also of motivating them. Based on theDiscourse Representation Theory (DRT) the text pragmatic model can add a functional perspective to established theories by making similar predictions on capitalisation but additionally specifying communicative reasons for them. Therefore it claims explanatory adequacy from the functional perspective.
Es ist in dieser Arbeit gelungen, starre Oligospiroketal(OSK)-Stäbe als Grundbausteine für komplexe 2D- und 3D-Systeme zu verwenden. Dazu wurde ein difunktionalisierter starrer Stab synthetisiert, der mit seines Gleichen und anderen verzweigten Funktionalisierungseinheiten in Azid-Alkin-Klickreaktionen eingesetzt wurde. An zwei über Klickreaktion verknüpften OSK-Stäben konnten mittels theoretischer Berechnungen Aussagen über die neuartige Bimodalität der Konformation getroffen werden. Es wurde dafür der Begriff Gelenkstab eingeführt, da die Moleküle um ein Gelenk gedreht sowohl gestreckt als auch geknickt vorliegen können. Aufbauend auf diesen Erkenntnissen konnte gezeigt werden, dass nicht nur gezielt große Polymere aus bis zu vier OSK-Stäben synthetisiert werden können, sondern es auch möglich ist, durch gezielte Änderung von Reaktionsbedingungen der Klickreaktion auch Cyclen aus starren OSK-Stäben herzustellen. Die neu entwickelte Substanzklasse der Gelenkstäbe wurde im Hinblick auf die Steuerung des vorliegenden Gleichgewichts zwischen geknicktem und gestrecktem Gelenkstab hin untersucht. Dafür wurde der Gelenkstab mit Pyrenylresten in terminaler Position versehen. Es wurde durch Fluoreszenzmessungen festgestellt, dass das Gleichgewicht z. B. durch die Temperatur oder die Wahl des Lösungsmittels beeinflussbar ist. Für vielfache Anwendungen wurde eine vereinfachte Synthesestrategie gefunden, mit der eine beliebige Funktionalisierung in nur einem Syntheseschritt erreicht werden konnte. Es konnten photoaktive Gelenkstäbe synthetisiert werden, die gezielt zur intramolekularen Dimerisierung geführt werden konnten. Zusätzlich wurde durch Aminosäuren ein Verknüpfungselement am Ende der Gelenkstäbe gefunden, das eine stereoselektive Synthese von Mehrfachfunktionalisierungen zulässt. Die Synthese der komplexen Gelenkstäbe wurde als ein neuartiges Gebiet aufgezeigt und bietet ein breites Forschungspotential für weitere Anwendungen z. B. in der Biologie (als molekulare Schalter für Ionentransporte) und in der Materialchemie (als Ladungs- oder Energietransporteure).
Das Influenzavirus infiziert Säugetiere und Vögel. Der erste Schritt im Infektionszyklus ist die Anbindung des Viruses über sein Oberflächenprotein Hämagglutinin (HA) an Zuckerstrukturen auf Epithelzellen des respiratorischen Traktes im Wirtsorganismus. Aus den drei komplementaritätsbestimmenden Regionen (complementarity determining regions, CDRs) der schweren Kette eines monoklonalen Hämagglutinin-bindenden Antikörpers wurden drei lineare Peptide abgeleitet. Die Bindungseigenschaften der drei Peptide wurden experimentell mittels Oberflächenplasmonenresonanzspektroskopie untersucht. Es zeigte sich, dass in Übereinstimmung mit begleitenden Molekulardynamik-Simulationen zwei der drei Peptide (PeB und PeC) analog zur Bindefähigkeit des Antikörpers in der Lage sind, Influenzaviren vom Stamm X31 (H3N2 A/Aichi/2/1968) zu binden. Die Interaktion des Peptids PeB, welches potentiell mit der konservierten Rezeptorbindestelle im HA interagiert, wurde anschließend näher charakterisiert. Die Detektion der Influenzaviren war unter geeigneten Immobilisationsbedingungen im diagnostisch relevanten Bereich möglich. Die Spezifität der PeB-Virus-Bindung wurde mittels geeigneter Kontrollen auf der Seite des Analyten und des Liganden nachgewiesen. Des Weiteren war das Peptid PeB in der Lage die Bindung von X31-Viren an Mimetika seines natürlichen Rezeptors zu inhibieren, was die spezifische Interaktion mit der Rezeptorbindungsstelle im Hämagglutinin belegt. Anschließend wurde die Primärsequenz von PeB durch eine vollständige Substitutionsanalyse im Microarray-Format hinsichtlich der Struktur-Aktivitäts-Beziehungen charakterisiert. Dies führte außerdem zu verbesserten Peptidvarianten mit erhöhter Affinität und breiterer Spezifität gegen aktuelle Influenzastämme verschiedener Serotypen (z.B. H1N1/2009, H5N1/2004, H7N1/2013). Schließlich konnte durch Verwendung einer in der Primärsequenz angepassten höher affinen Peptidvariante die Influenzainfektion in vitro inhibiert werden. Damit stellen die vom ursprünglichen Peptid PeB abgeleiteten Varianten Rezeptormoleküle in biosensorischen Testsystemen sowie potentielle Wirkstoffe dar.
摘要。哈索•普拉特纳研究院 (HPI) 的新型互动在线教育平台 openHPI (https://openHPI.de) 可以为从事信息技术和信息学领域内容的工作和感兴趣的学员提供可自由访问的、免费的在线课程。与斯坦福大学于 2011 年首推,之后也在美国其他精英大学提供的“网络公开群众课”(简称 MOOC)一样,openHPI 同样在互联网中提供学习视频和阅读材料,其中综合了支持学习的自我测试、家庭作业和社交讨论论坛,并刺激对促进学习的虚拟学习团队的培训。与“传统的”讲座平台,比如 tele-TASK 平台 (http://www.tele-task.de) 不同(在该平台中,可调用以多媒体方式记录的和已准备好的讲座),openHPI 提供的是按教学法准备的在线课程。这些课程的开始时间固定,之后在连续六个课程周稳定的提供以多媒体方式准备的、尽可能可以互动的学习材料。每周讲解课程主题的一章。为此在该周开始前会准备一系列学习视频、文字、自我测试和家庭作业材料,课程学员在该周将精力用于处理这些内容。这些计划与一个社交讨论平台相结合,学员在该平台上可以与课程导师和其他学员交换意见、解答问题和讨论更多主题。当然,学员可以自己决定学习活动的类型和范围。他们可以为课程作出自己的贡献,比如在论坛中引用博文或推文。之后其他学员可以评论、讨论或自己扩展这些博文或推文。这样学员、教师和提供的学习内容就在一个虚拟的团体中与社交学习网络相互结合起来。
Durch die immer stärker werdende Flut an digitalen Informationen basieren immer mehr Anwendungen auf der Nutzung von kostengünstigen Cloud Storage Diensten. Die Anzahl der Anbieter, die diese Dienste zur Verfügung stellen, hat sich in den letzten Jahren deutlich erhöht. Um den passenden Anbieter für eine Anwendung zu finden, müssen verschiedene Kriterien individuell berücksichtigt werden. In der vorliegenden Studie wird eine Auswahl an Anbietern etablierter Basic Storage Diensten vorgestellt und miteinander verglichen. Für die Gegenüberstellung werden Kriterien extrahiert, welche bei jedem der untersuchten Anbieter anwendbar sind und somit eine möglichst objektive Beurteilung erlauben. Hierzu gehören unter anderem Kosten, Recht, Sicherheit, Leistungsfähigkeit sowie bereitgestellte Schnittstellen. Die vorgestellten Kriterien können genutzt werden, um Cloud Storage Anbieter bezüglich eines konkreten Anwendungsfalles zu bewerten.
Der Arbeitskreis Militär und Gesellschaft in der Frühen Neuzeit e. V. wurde im Frühjahr 1995 gegründet. Er hat es sich zur Aufgabe gemacht, die Erforschung des Militärs im Rahmen der frühneuzeitlichen Geschichte zu befördern und zugleich das Bewusstsein der Frühneuzeit-HistorikerInnen für die Bedeutung des Militärs in all seinen Funktionen zu wecken. Das Militär steht somit als soziale Gruppe selbst im Mittelpunkt der Aktivitäten des Arbeitskreises, wird aber auch in seinen Wirkungen und Repräsentationen thematisiert. Ziel ist es, die Rolle des Militärs als Teil der frühneuzeitlichen Gesellschaft umfassend herauszuarbeiten und zu würdigen. Insofern versteht der AMG seine Arbeit nicht nur als Beitrag zur Militärgeschichte, sondern vor allem als Beitrag zur Geschichte der Frühen Neuzeit insgesamt. Der Arbeitskreis bietet ein Diskussions- und Informationsforum durch die Organisation von Tagungen, die Herausgabe der Schriftenreihe ‚Herrschaft und soziale Systeme in der Frühen Neuzeit‘, die Zeitschrift ‚Militär und Gesellschaft in der Frühen Neuzeit‘ und die Mailingliste mil-fnz.
Die Dissertation wird der rechtsstaatlichen Problematik in der Verfassung von Georgien und in der Rechtsprechung des Verfassungsgerichts Georgiens gewidmet und bietet eine umfangreiche Analyse der wichtigsten Rechtsstaatsmerkmale in dieser Hinsicht. Neben dieser Analyse der früheren und bestehenden Gegebenheiten, prognostiziert sie mittels der perspektivistischen Denkmodele zukünftige Entwicklungen und schlägt eventuelle Lösungswege von Problemen vor. Bei der Arbeit an der Dissertation wurde insbesondere die reiche Erfahrung der deutschen Rechtsstaatsdogmatik in Anspruch genommen.
Menschenrechte in der Zuwanderungsgesellschaft : 2. Potsdamer MenschenRechtsTag am 22. November 2012
(2014)
Am Potsdamer MenschenRechtsTag – zeitlich in Nähe zum Internationalen Tag der Menschenrechte am 10. Dezember gelegen – diskutiert das MenschenRechtsZentrum der Universität Potsdam wichtige Menschenrechtsthemen mit einem konkreten gesellschafts- und oder rechtspolitischen Bezug. Ende 2012 lag der Fokus auf den Menschenrechten von Zuwanderern. Aus einer grundlegenden philosophischen Perspektive wurde erläutert, dass Beschränkungen des menschenrechtlichen Status dieser Personengruppe nur schwer und in Einzelfällen begründbar sind; eine praktische und rechtspolitische Sichtweise legte konkreten Reformbedarf im Asylverfahren offen, dem inzwischen immerhin zum Teil entsprochen wurde.
Unterschiedliche Verfahren zur Ermittlung von Georadar-Wellengeschwindigkeiten wurden entwickelt und erfolgreich angewendet. Für die Verfahren wurden statistische Methoden und Schwarmintelligenz-Algorithmen benutzt. Es wurde gezeigt, dass die neuen Verfahren schneller, präziser und besser reproduzierbare Ergebnisse für Georadar-Wellengeschwindigkeit erzielen als herkömmliche Verfahren.
Mit verbesserten Werten der Georadar-Wellengeschwindigkeit lassen sich die verzerrten dreidimensionalen Abbilder der obersten zehn Meter des Untergrundes, welche sich mit Georadar-Daten erzeugen lassen, korrigieren. In diesen korrigierten Abbildern sind dann realistische Tiefen von Schichten oder Objekten im Untergrund besser messbar. Außerdem verbessern präzisere Wellengeschwindigkeiten die Bestimmung von Bodenparametern, wie Wassergehalt oder Tonanteil. Die präsentierten Verfahren erlauben eine quantitative Angabe von Fehlern der bestimmten Wellengeschwindigkeit und der daraus folgenden Tiefen und Bodenparametern im Untergrund. Die Vorteile dieser neu entwickelten Verfahren zur Charakterisierung des Untergrundes der oberen Meter wurde an Feldbeispielen demonstriert.
Ziel der Arbeit war die Entwicklung von farbstoffmarkierten Polymeren, die einen temperaturgetriebenen Knäuel-Kollaps-Phasenübergang in wässriger Lösung ("thermo-responsive Polymere") zeigen und diesen in ein optisches Signal übersetzen können. Solche Polymere unterliegen innerhalb eines kleinen Temperaturintervalls einer massiven Änderung ihres Verhaltens, z B. ihrer Konformation und ihres Quellungsgrads. Diese Änderungen sind mit einem Wechsel der Löseeigenschaften von hydrophil zu hydrophob verbunden. Als Matrixpolymere wurden Poly-N-isopropylacrylamid (polyNIPAm), Poly(oligoethylen-glykolacrylat) (polyOEGA) und Poly(oligoethylenglykolmethacrylat) (polyOEGMA) ein-gesetzt, in die geeignete Farbstoffen durch Copolymerisation eingebaut wurden. Als besonders geeignet, um den Phasenübergang in ein optisches Signal zu übersetzen, erwiesen sich hierfür kompakte, solvatochrome Cumarin- und Naphthalimidderivate. Diese beeinträchtigten weder das Polymerisationsverhalten noch den Phasenübergang, reagierten aber sowohl bezüglich Farbe als auch Fluoreszenz stark auf die Polarität des Lösemittels. Weiterhin wurden Systeme entwickelt, die mittels Energietransfer (FRET) ein an den Phasenübergang gekoppeltes optisches Signal erzeugen. Hierbei wurde ein Cumarin als Donor- und ein Polythiophen als Akzeptorfarbstoff eingesetzt. Es zeigte sich, dass trotz scheinbarer Ähnlichkeit bestimmte Polymere ausgeprägt auf einen Temperaturstimulus mit Änderung ihrer spektralen Eigenschaften reagieren, andere aber nicht. Hierfür wurden die molekularen Ursachen untersucht. Als wahrscheinliche Gründe für das Ausbleiben einer spektralen Änderung in Oligo(ethylenglykol)-basierten Polymeren sind zum einen die fehlende Dehydratationseffektivität infolge des Fehlens eines selbstgenügenden Wasserstoffbrückenbindungsmotivs zu nennen und zum anderen die sterische Abschirmung der Farbstoffe durch die Oligo(ethylenglykol)-Seitenketten. Als Prinzipbeweis für die Nützlichkeit solcher Systeme für die Bioanalytik wurde ein System entwickelt, dass die Löslichkeitseigenschaft eines thermoresponsiven Polymers durch Antikörper-Antigen-Reaktion änderte. Die Bindung selbst kleiner Mengen eines Antikörpers ließ sich so direkt optisch auslesen und war bereits mit dem bloßen Auge zu erkennen.
Die vorliegende Studie untersucht die gesellschaftliche Rolle des gegenwärtigen Mathematikunterrichts an deutschen allgemeinbildenden Schulen aus einer soziologisch-kritischen Perspektive. In Zentrum des Interesses steht die durch den Mathematikunterricht erfahrene Sozialisation. Die Studie umfasst unter anderem eine Literaturdiskussion, die Ausarbeitung eines soziologischen Rahmens auf der Grundlage des Werks von Michel Foucault und zwei Teilstudien zur Soziologie der Logik und des Rechnens. Abschließend werden Dispositive des Mathematischen beschrieben, die darlegen, in welcher Art und mit welcher persönlichen und gesellschaftlichen Folgen der gegenwärtige Mathematikunterricht eine spezielle Geisteshaltung etabliert.
"Tolerantes Brandenburg"
(2014)
1. Einleitung
2. Kriminalitätsprävention und Rechtsextremismusprävention
3. Ausgewählte Strukturelemente des Kooperationsverbundes TBB
3.1 Aufgabendefinition zwischen Rechtsextremismusbekämpfung und Demokratieförderung
3.2 Status der landesweiten Zentralstelle
3.3 Ressortübergreifende Aufgaben im Verhältnis zu den Fachressorts
3.4 Vernetzung und Hierarchie
3.5 Verhältnis zur Zivilgesellschaft
3.6 Evaluation
4. Fazit
Entwicklung von Strategien zur Attraktivitätssteigerung von Fortbildungen im Gesundheitsmanagement
(2014)
Die Herausforderungen des 21. Jahrhunderts bewirken sowohl im Bundesministerium der Finanzen BMF als auch im französischen Wirtschafts- und Finanzministerium MINEFI, der Gesunderhaltung der Beschäftigten besondere Aufmerksamkeit zu schenken. Beide Verwaltungen sehen dabei die Referatsleiter/innen (RL) in der Pflicht und bieten deshalb Fortbildungen im Gesundheitsmanagement an. Das Interesse der RL für dieses Angebot ist bisher gering. Die vorliegende Masterarbeit untersucht die Ursachen für das in der deutschen und französischen Finanzverwaltung unterschiedlich geringe Interesse und kommt zu dem Schluss, dass die Hemmnisse im MINEFI stärker durch soziokulturelle und institutionelle Faktoren (republikanische Elitenbildung und Positionsmacht der jeweiligen Hierarchiestufe) bedingt sind, während im BMF institutionelle und persönlichkeitsspezifische Gründe zusammentreffen. Die Behördenkultur beider Ministerien fokussiert die Arbeitsergebnisse der RL und lässt ihr Verhältnis zu den Referatsangehörigen weitestgehend außer Acht. Eine Attraktivitätssteigerung des Fortbildungsangebots im Gesundheitsmanagement setzt in beiden Verwaltungen voraus, Marketingstrategien innerhalb der Behörde zu etablieren, die die Wertigkeit des Gesundheitsmanagements im Organisationsgefüge erhöhen und dadurch die RL stärker motivieren. Dieser Change-Prozess erfordert Ausdauer und Geduld.
Theodor Fontanes berühmte "Wanderungen durch die Mark Brandenburg" haben nicht nur einen großen Teil zur touristischen und literarischen Erschließung der Mark Brandenburg beigetragen, sondern auch nahezu ein eigenes Genre an Spurensuchenden und Nachwanderern begründet. In den Regalen gängiger Buchhandlungen finden sich immer wieder „Wanderungen nach Fontane“, Wandernde „unterwegs mit Fontane“ oder – wie erst kürzlich im März 2014 erschienen – "Wir sind jetzt hier. Neue Wanderungen durch die Mark Brandenburg" von Björn Kuhligk und Tom Schulz.
Dabei stellt sich die Frage: Wie wird heute, fast 150 Jahre nach Fontanes Wanderungen, die Natur als Landschaft in „neuen“ Wanderungen „neu“ verhandelt? Der Schwerpunkt dieser Fragestellung liegt dabei auf den literarischen Vermittlungsformen beider Werke; darauf, wie die Natur als Landschaft vermittelt und wie das in ihr Gesehene und Erlebte in den Texten poetisiert wird.
Bearbeitet wird die Fragestellung anhand einer Analyse der literarischen Vermittlung von Naturräumen. Die Betrachtung Fontanescher Charakteristika der Vermittlung und Literarisierung von Natur basiert in erster Linie auf der umfangreichen Forschungsliteratur. Eigene Beobachtungen aus den "Neuen Wanderungen" werden dieser gegenüber gestellt.
Aus der Zusammenstellung der so gewonnenen Eindrücke können abschließend Erkenntnisse darüber formuliert werden, inwiefern sich „alte“ und „neue“ Wanderungen ähneln und welche neuen Tendenzen die Gegenwartsliteratur aufweist.
Der Bittergeschmack dient Säugern vermutlich zur Wahrnehmung und Vermeidung toxischer Substanzen. Bitterstoffe können jedoch auch gesund sein oder werden oft bereitwillig mit der Nahrung aufgenommen. Ob sie geschmacklich unterschieden werden können, ist allerdings umstritten. Detektiert werden Bitterstoffe von oralen Bittergeschmacksrezeptoren, den TAS2R (human) bzw. Tas2r (murin). In der Literatur gibt es aber immer mehr Hinweise darauf, dass überdies Tas2r nicht nur in extragustatorischen Organen exprimiert werden, sondern dort auch wichtige Aufgaben erfüllen könnten, was wiederum die Aufklärung ihrer noch nicht vollständig entschlüsselten Funktionsweisen erfordert. So ist noch unbekannt, ob alle bisher als funktionell identifizierten Tas2r wirklich gustatorische Funktionen erfüllen.
Im Rahmen der Charakterisierung neu generierter, im Locus des Bittergeschmacksrezeptors Tas2r131 genetisch modifizierter Mauslinien, wurde in vorliegender Arbeit die gustatorische sowie extragustatorische Expression von Tas2r131 untersucht. Dass Tas2r131 nicht nur in Pilzpapillen, Wall- und Blätterpapillen (VP+FoP), Gaumen, Ductus nasopalatinus, Vomeronasalorgan und Kehldeckel, sondern auch in Thymus, Testes und Nebenhodenkopf, in Gehirnarealen sowie im Ganglion geniculatum nachgewiesen wurde, bildete die Grundlage für weiterführende Studien. Die vorliegende Arbeit zeigt außerdem, dass Tas2r108, Tas2r126, Tas2r135, Tas2r137 und Tas2r143 in Blut exprimiert werden, was auf eine heterogene Funktion der Tas2r hindeutet. Dass zusätzlich erstmals die Expression aller 35 als funktionell beschriebenen Tas2r im gustatorischen VP+FoP-Epithel von C57BL/6-Mäusen nachgewiesen wurde, verweist auf deren Relevanz als funktionelle Geschmacksrezeptoren.
Weiter zeigten Untersuchungen zur Aufklärung eines möglichen Bitter-Unterscheidungsvermögens in Geschmackspapillen von Mäusen mit fluoreszenzmarkierten oder ablatierten Tas2r131-Zellen, dass Tas2r131 exprimierende Zellen eine Tas2r-Zellsubpopulation bilden. Darüber hinaus existieren innerhalb der Bitterzellen geordnete Tas2r-Expressionsmuster, die sich nach der chromosomalen Lage ihrer Gene richten. Isolierte Bitterzellen reagieren heterogen auf bekannte Bitterstoffe. Und Mäuse mit ablatierter Tas2r131-Zellpopulation besitzen noch andere Tas2r-Zellen und schmecken damit einige Bitterstoffe kaum noch, andere aber noch sehr gut. Diese Befunde belegen die Existenz verschiedener gustatorischer Tas2r-Zellpopulationen, welche die Voraussetzung bilden, Bitterstoffe heterogen zu detektieren. Ob dies die Grundlage für ein divergierendes Verhalten gegenüber unverträglichen und harmlosen oder gar nützlichen Bitterstoffen darstellt, kann mit Hilfe der dargelegten Tas2r-Expressionsmuster künftig in Verhaltensexperimenten geprüft werden.
Die Bittergeschmackswahrnehmung in Säugetieren stellt sich als ein hochkomplexer Mechanismus dar, dessen Vielschichtigkeit durch die hier neu aufgezeigten heterogenen Tas2r-Expressions- und Funktionsmuster erneut verdeutlicht wird.
Der vorliegende Text gibt eine Bestandserhebung der bisher stattgefundenen Aktivitäten im E-Learning an der Universität Potsdam wieder, andererseits dient er auch dazu, Potenziale zu sichten und in einem nächstem Schritt daraus Ideen und Vorschläge für eine hochschulweite E-Learning-Strategie abzuleiten. Zielsetzung der Bestandsaufnahme ist es, die relevanten Informationen darzustellen, über den Platz der Universität Potsdam in der hochschulischen E-Learning-Landschaft zu orientieren und den Stand der Entwicklung zu bewerten.
In the Posthomerica references to an omnipotent fate or to the power of the gods are strikingly frequent. Modern scholarship has often treated this as Stoic. Closer reading reveals that Quintus is, on the one hand, following the Homeric concept of double motivation, according to which humans can be motivated by a deity only to an act that conforms to their character and for which they are responsible. On the other hand, Quintus gives these statements on responsibility to characters who are trying to excuse their own acts to themselves and, particularly, to others, i.e. they are motivated contextually. It would be non-Stoic to excuse oneself for a bad deed by reference to an almighty fate. It seems that Quintus, by presenting this tension, wanted the reader to reconsider and reflect
on the different concepts.