Refine
Has Fulltext
- yes (2538) (remove)
Year of publication
Document Type
- Doctoral Thesis (2538) (remove)
Language
Keywords
- climate change (53)
- Klimawandel (51)
- Modellierung (34)
- Nanopartikel (28)
- machine learning (22)
- Fernerkundung (20)
- Synchronisation (19)
- remote sensing (18)
- Spracherwerb (17)
- Blickbewegungen (16)
Institute
- Institut für Physik und Astronomie (406)
- Institut für Biochemie und Biologie (386)
- Institut für Geowissenschaften (328)
- Institut für Chemie (304)
- Extern (151)
- Institut für Umweltwissenschaften und Geographie (122)
- Institut für Ernährungswissenschaft (102)
- Wirtschaftswissenschaften (97)
- Hasso-Plattner-Institut für Digital Engineering GmbH (92)
- Department Psychologie (89)
Trotz der hohen innovationspolitischen Bedeutung der außeruniversitären Forschungseinrichtungen (AUF) sind sie bisher selten Gegenstand empirischer Untersuchungen. Keine der bisher vorliegenden Arbeiten legt ihren Fokus auf die Zusammenarbeit von Wissenschaftler:innen in Forschungsteams, obwohl wissenschaftliche Zusammenarbeit ein weitgehend unerforschtes Gebiet ist. Dies verwundert insofern, da gerade innovative und komplexe Aufgaben, wie sie im Bereich der Forschung bestehen, das kreative Potenzial Einzelner sowie eine gut funktionierende Kooperation der einzelnen Individuen benötigen. Die Zusammenarbeit von Wissenschaftler:innen in den AUF findet in einem kompetitiven Umfeld statt. Einerseits stehen die AUF auf Organisationsebene im Wettbewerb zueinander und konkurrieren um Forschungsgelder und wissenschaftliches Personal. Andererseits ist die kompetitive Einwerbung von Drittmitteln für Wissenschaftler:innen essentiell, um Leistungen, gemessen an hochrangigen Publikationen und Drittmittelquoten, für die eigene Karriere zu erbringen. Ein zunehmender Anteil an Drittmittelfinanzierung in den Einrichtungen hat zudem Auswirkungen auf die Personalpolitik und die Anzahl befristeter Arbeitsverhältnisse. Gleichzeitig wird Forschungsförderung häufig an Kollaborationen von Wissenschaftler:innen geknüpft und bei Publikationen und Forschungsergebnissen zeigen Studien, dass diese überwiegend das Resultat von mehreren Personen sind. Dieses Spannungsfeld zwischen Zusammenarbeit und Wettbewerb wird verstärkt durch die fehlenden Möglichkeiten für den wissenschaftlichen Nachwuchs in der Wissenschaft zu bleiben. Auch wenn die Bundesregierung auf diese Herausforderungen reagiert, muss der Einzelne seinen Weg zwischen Zusammenarbeit und Konkurrenz finden.
Zielsetzung dieser Arbeit ist es, nachfolgende Forschungsfragen zu beantworten:
1. Wie können naturwissenschaftliche Forschungsteams in AUF charakterisiert werden?
2. Wie agiert die einzelne Forscherin/ der einzelne Forscher im Spannungsfeld zwischen Kooperation und Wettbewerb?
3. Welche Potentiale und Hemmnisse lassen sich auf Individual-, Team- und Umweltebene für eine erfolgreiche Arbeit von Forschungsteams in AUF ausmachen?
Um die Forschungsfragen beantworten zu können, wurde eine empirische Untersuchung im Mixed Method Design, bestehend aus einer deutschlandweiten Onlinebefragung von 574 Naturwissenschaftler:innen in AUF und qualitativen Interviews mit 122 Teammitgliedern aus 20 naturwissenschaftlichen Forschungsteams in AUF, durchgeführt.
Die Ergebnisse zeigen, dass die Teams eher als Arbeitsgruppen bezeichnet werden können, da v.a. in der Grundlagenforschung kein gemeinsames Ziel als vielmehr ein gemeinsamer inhaltlicher Rahmen vorliegt, in dem die Forschenden ihre individuellen Ziele verfolgen. Die Arbeit im Team wird überwiegend als positiv und kooperativ beschrieben und ist v.a. durch gegenseitige Unterstützung bei Problemen und weniger durch einen thematisch wissenschaftlichen Erkenntnisprozess geprägt. Dieser findet vielmehr in Form kleiner Untergruppen innerhalb der Arbeitsgruppe und vor allem in enger Abstimmung mit der Teamleitung (TL) statt. Als wettbewerbsverschärfend werden vor allem organisationale Rahmenbedingungen, wie Befristungen und der Flaschenhals, thematisiert.
Die TL nimmt die zentrale Rolle im Team ein, trägt die wissenschaftliche, finanzielle und personelle Verantwortung und muss den Forderungen der Organisation gerecht werden. Promovierende konzentrieren sich fast ausschließlich auf ihre Qualifizierungsarbeit. Bei Postdocs ist ein Spannungsfeld zu erkennen, da sie eigene Projekte und Ziele verfolgen, die neben den Anforderungen der TL bestehen. Die Gatekeeperfunktion der TL wird gestärkt durch ihre Rolle bei der Weitergabe von karriererelevanten Informationen im Team, z.B. bei anstehenden Konferenzen. Sie hat die wichtigen Kontakte, sorgt für die Vernetzung des Teams und ist für die Netzwerkpflege zuständig. Der wissenschaftliche Nachwuchs verlässt sich bei seinen Aufgaben und den karriererelevanten Faktoren sehr auf ihre Unterstützung. Nicht-wissenschaftliche Mitarbeitende gilt es stärker zu berücksichtigen, dies sowohl in ihrer Funktion in den Teams als auch in der Gesamtorganisation. Sie sind die zentralen Ansprechpersonen des wissenschaftlichen Personals und sorgen für eine Kontinuität bei der Wissensspeicherung und -weitergabe. Für die Organisationen gilt es, unterstützende Rahmen-, Arbeits- und Aufgabenbedingungen für die TL zu schaffen und den wissenschaftlichen Nachwuchs bei einer frühzeitigen Verantwortung für wissenschaftliche und karriererelevante Aufgaben zu unterstützen. Dafür bedarf es verbesserter Personalentwicklungskonzepte und -angebote. Darüber hinaus gilt es, Kooperationsmöglichkeiten innerhalb der Einrichtung und zwischen den Gruppen zu schaffen, z.B. durch offene Räume und Netzwerkmöglichkeiten, und innovative Arbeitsumgebungen zu fördern, um neue Formen einer innovationsfreundlichen Wissenschaftskultur zu etablieren.
Seit dem Zusammenbruch der Sowjetunion kamen in diesem Raum neue Migrationsprozesse wie die Arbeitsmigration zwischen den südlichen GUS-Republiken und Russland, aber auch grenzüberschreitende Bevölkerungsbewegungen ethnischer Gruppen in ihre „historischen Herkunftsgebiete“ auf. Die in der vorliegenden Arbeit untersuchten, dynamischen Wanderungsprozesse von Kasachen zwischen der Mongolei und Kasachstan weisen Kennzeichen dieses Migrationstypus, aber auch einige Besonderheiten auf. Die vorliegende Arbeit hat längere Forschungsaufenthalte in Kasachstan und der Mongolei von 2006 bis 2009 zur Grundlage. Aus der Mongolei stammende kasachische Migranten im Umland von Almaty und Kasachen im westlichsten aymag der Mongolei, Bayan-Ölgiy, wurden mittels quantitativer und qualitativer Methoden empirischer Sozialforschung befragt. Ergänzend wurden in beiden Staaten Befragungen von Experten aus gesellschaftlichen, wissenschaftlichen und politischen Institutionen durchgeführt, um eine möglichst ausgeglichene Sicht auf die postsowjetischen Migrations- und Inkorporationsprozesse zwischen beiden Staaten sicherzustellen. Zwischen den Migranten in Kasachstan und ihren – noch bzw. wieder – in der Mongolei lebenden Verwandten haben sich in den letzten Jahrzehnten enge soziale Netzwerke entwickelt. Die Aufrechterhaltung der Bindungen wird durch eine Verbesserung der Transport- und Kommunikationsmöglichkeiten zwischen beiden Staaten gefördert. Zirkuläre Migrationsmuster, regelmäßige Besuche und Telefongespräche sowie grenzüberschreitende sozioökonomische Unterstützungsmechanismen haben sich insbesondere in den vergangenen Jahren intensiviert. Diese Interaktionen sind im Kontext der rechtlichen, politischen und wirtschaftlichen Bedingungen im Migrationssystem Mongolei-Kasachstan – und insbesondere in Wechselwirkung mit der staat¬lichen Migrations- und Inkorpora-tionspolitik – einzuordnen. Die Erkenntnisse der vorliegenden Untersuchung lassen sich in aller Kürze so zusammenfassen: (I) Die in sozialen Netzwerken organisierten Interaktionen der Kasachen aus der Mongolei weisen Merkmale von, aber auch Unterschiede zu Konzepten des Transnationalismus-Ansatzes auf. (II) Die sozialen Bindungen zwischen Verwandten generieren Sozialkapital und tragen zur alltäglichen Unterstützung bei. (III) Die lokalen und grenzüberschreitenden Aktivitäten der Migranten sind als Strategien der sozioökonomischen Eingliederung zu deuten. (IV) Ein wesentlicher Teil der aus der Mongolei stammenden Kasachen artikuliert von der Mehrheitsbevölkerung abweichende, hybride Identifikationsmuster, die die politischen Eliten in Kasachstan bisher zu wenig wahrnehmen.
Die Dissertation befasst sich mit den Reformprozessen, die sich vom Zeitpunkt des System-umbruchs 1989/90 bis zum EU-Beitritt 2004 in den Ministerialverwaltungen Estlands und Polens vollzogen haben. Die Veränderungen, die während dieser Zeit stattfanden, standen im Spannungsfeld zweier Prozesse: des von innenpolitischen Erfordernissen geprägten Transformationsprozesses und des Europäisierungsprozesses, in dem die EU als einflussreicher externer Akteur hinzutrat. Konzeptionell greift die Untersuchung auf die Diskussionen aus der institutionellen Transformationsforschung und die Debatten um die Europäisierung von Regierungs- und Verwaltungssystemen zurück. Die Arbeit konzentriert sich auf die Veränderungen auf der zentralstaatlichen Ebene und betrachtet diese Veränderungen in ihrer horizontalen und sektoralen Dimension. Die horizontale Dimension umfasst Rahmenbedingungen des Verwaltungssystems insgesamt, dies sind zentrale Strukturen des Regierungsapparates, die regierungsinternen Koordinationsmechanismen und die Etablierung des öffentlichen Dienstes. In der sektoralen Dimension wird die Verwaltung im Politikfeld Landwirtschaft betrachtet. In beiden Ländern gab es einen gemeinsamen Ausgangspunkt der Entwicklungen, das sozialistische Verwaltungssystem, und einen ähnlichen Zielpunkt der Verwaltungsreformen in den 1990er Jahren: eine wie auch immer definierte „moderne Verwaltung“. Auch die Rahmenbedingungen des EU-Integrationsprozesses in Mittelosteuropa lassen eher Konvergenzen erwarten. Doch spielen nationale politische Konstellationen eine entscheidende Rolle für die Entwicklungen, so dass man bilanzierend sagen kann: Estland und Polen haben mit Beginn der Transformation unterschiedliche nationale Entwicklungspfade eingeschlagen und ihre Verwaltungssysteme unterscheiden sich mittlerweile stärker voneinander als zur Zeit des Sozialismus.
Das nationale Recht wird mehr und mehr durch EG-Recht beeinflussst. In diesem Zusammenhang ergeben sich bei denjenigen EG-Rechtsakten, die anders als EG-Verordnungen nicht unmittelbar in den Mitgliedstaaten gelten, sondern von diesen in nationales Recht umgesetzt werden müssen, vielfältige Probleme. Diese Probleme behandelt der Verfasser aus der Sicht des Anwalts in einer Weise, dass diejenigen, die sich in der Praxis mit derartigen Umsetzungsfragen zu beschäftigen haben, wertvolle Hinweise für eine konkret zu lösende Umsetzungsproblematik erhalten. Ergänzt und damit noch transparenter werden seine Lösungsvorschläge dadurch, dass der Verfasser sie im zweiten Teil der Untersuchung auf die konkrete Fragestellung anwendet, inwieweit es zu einer Umsetzung bzw. ordnungsgemäßen Umsetzung der in den Jahren 1988 bis 2001 erlassenen Fleischhygienegebührenrechtsakte der EG gekommen ist. Diese Arbeit wurde betreut von Professor Dr. D.C. Umbach an der Universität Potsdam. Aus dem Inhalt: Abgrenzung der Umsetzungszuständigkeit zwischen Bund und Ländern. Anforderungen an das Vorliegen eines Umsetzungsaktes sowie an eine ordnungsgemäße Umsetzung. Rechtsfolgen bei Umsetzungsverstößen. Prozessuale Fragen.
Die internationale Staatengemeinschaft steht Sezessionsbestrebungen zur Aufspaltung bestehender Staaten gewöhnlich ablehnend gegenüber. Gleichzeitig wendet sie in vielen Ländern Instrumente der Entwicklungspolitik an und greift so auch in den dortigen politischen Prozess ein. Untersucht wird, inwiefern Entwicklungspolitik so gestaltet werden kann, dass sie nicht, quasi als Nebenwirkung, einer Sezessionsbewegung zum Durchbruch verhilft. Betrachtet wird dabei neben der gezielten Förderung wirtschaftlichen Wachstums auch das Instrument der Dezentralisierung, das oft als Mittel zur „Beruhigung“ separatistischer Bestrebungen vorgeschlagen wird. Zuvor jedoch wird aufgewiesen, dass eine Politik, die Sezessionen verhindern will, zumindest in vielen Fällen auch moralphilosophisch schlüssig begründet werden kann. Den Abschluss der Arbeit bilden drei Fallstudien zu Sezessionen auf dem Gebiet der ehemaligen Sowjetunion.
Mathematik spielt im Physikunterricht eine nicht unerhebliche Rolle - wenn auch eine zwiespältige. Oft wird sie sogar zum Hindernis beim Lernen von Physik und kann ihr emanzipatorisches Potenzial nicht entfalten. Die vorliegende Arbeit stellt zwei Bausteine für eine begründete Konzeption zum Umgang mit Mathematik beim Lernen von Physik zur Verfügung. Im Theorieteil der Arbeit werden zum Einen wissenschaftstheoretische Aspekte der Rolle der Mathematik in der Physik aufgearbeitet und der physikdidaktischen Forschungsgemeinschaft im Zusammenhang zugänglich gemacht. Zum anderen werden Forschungsergebnisse zu Vorstellungen Lernender über Physik und Mathematik sowie im Bereich der Epistemologie zusammengestellt. Im empirischen Teil der Arbeit werden Vorstellungen zur Rolle der Mathematik in der Physik von Schülerinnen und Schülern der Klassenstufen 10 und 12 sowie Physik-Lehramtstudierenden im Grundstudium mit Hilfe eines Fragebogens erhoben und unter Verwendung inhaltsanalytischer bzw. statistischer Methoden ausgewertet. Die Ergebnisse zeigen unter Anderem, dass Mathematik im Physikunterricht entgegen gängiger Meinungen bei den Lernenden nicht negativ, aber zumindest bei jüngeren Lernenden formal und algorithmisch konnotiert ist.
Die vorliegende Studie beschäftigt sich mit der Planung und Durchführung des Lernprozesses von Schauspielern, wobei das Hauptaugenmerk auf dem Einsatz von Lernstrategien liegt. Es geht darum, welcher Strategien sich professionell Lernende bedienen, um die für die Berufsausübung erforderliche Textsicherheit zu erlangen, nicht um die Optimierung des Lernerfolges.
Die Literaturrecherche machte deutlich, dass aktuelle Studien zum Lernen von Erwachsenen vor allem im berufsspezifischen Kontext angesiedelt sind und sich auf den Erwerb von Kompetenzen, Problemlösestrategien und gesellschaftliche Teilhabe beziehen. Dem Lernen von Schauspielern liegt aber keine Absicht einer Verhaltensänderung oder eines konkreten Wissenszuwachses zugrunde.
Für Schauspieler ist der Auftritt Bestandteil ihrer Berufskultur. Angesichts der Tatsache, dass präzisem Faktenwissen als Grundlage für kompetentes, überzeugendes Präsentieren entscheidende Bedeutung zukommt, sind die Ergebnisse der Studie auch für Berufsgruppen relevant, die öffentlich auftreten müssen, wie z. B. für Priester, Juristen und Lehrende. Das gilt ebenso für Schüler und Studenten, die Referate halten und/oder Arbeiten präsentieren müssen.
Für die empirische Untersuchung werden zwölf renommierte Schauspieler mittels problemzentriertem Interview befragt, anschließend wird eine qualitative Inhaltsanalyse durchgeführt.
In der Auswertung der Daten kann ein deutlicher Zusammenhang zwischen Körper und Sprechpraxis nachgewiesen werden. Ebenso ergibt die Analyse, wie wichtig Bewegung für den Lernprozess ist. Es können Ergebnisse in Bezug auf kognitive, metakognitive und ressourcenorientierte Strategien generiert werden, wobei der Lernumgebung und dem Lernen mit Kollegen entscheidende Bedeutung zukommt.
Das Ziel der Arbeit ist die Darstellung der preußischen Mittelschule für den Zeitraum von 1872 bis 1945. Neben der strukturell-curricularen Entwicklung dieser Schulform werden die Bereiche ‚Chemieunterricht’ und ‚Lehrerausbildung’ schwerpunktmäßig untersucht. Vorgeschaltet ist eine Analyse und Darstellung der zur Mittelschule hinführenden Entwicklung mit ihren politischen, wirtschaftlichen und sozialen Bedingungen. Die für die Strukturierung der Arbeit gewählte Phaseneinteilung orientiert an den bildungspolitischen Zäsuren, die durch die jeweiligen staatlichen ‚Bestimmungen’ charakterisiert sind. Mit diesen in den Jahren 1872, 1910, 1925, 1938 und 1942 vorgelegten Bestimmungen wurde das Mittelschulwesen jeweils neu geordnet. Schwerpunkt der benutzten Quellen ist, die Verbandszeitschrift der Mittelschullehrer, die „Die Mittelschule“. Weiter wurden zeitgenössische Quellen und Literatur sowie pädagogische Zeitschriften für die Analysen benutzt. Untersuchungsschwerpunkt ist die Darstellung der preußischen Mittelschule unter dem Aspekt der bildungspolitischen Institutionalisierung im Jahre 1872. Ein weiterer Untersuchungsschwerpunkt ist der Chemieunterricht. Als bedeutungsvoll für diesen Unterricht müssen die Diskussionen im Untersuchungszeitraum gesehen werden, die über inhaltliche Fragen und die methodische Gestaltung des Unterrichts geführt wurden. Der Einsatz der Schulbücher wird hierbei besonders berücksichtigt. Die Situation der Lehrer wird unter dem Aspekt ihrer Ausbildung untersucht. Als Mittelschullehrer wurden vornehmlich Volksschullehrer eingesetzt, die sich autodidaktisch auf die Prüfung zum Mittelschullehrer vorbereiten mussten. Die Verweigerung einer identitätsstiftenden schulformbezogenen Lehrerausbildung hat der Mittelschule die Möglichkeit genommen, sich frühzeitig zu einer selbständig-unabhängigen Schulform zu entwickeln. Bedeutungsvoll ist das festgestellte Verhalten der Lehrerschaft dieser Schulform in den unterschiedlichen politischen Systemen. In den zeitlichen Phasen steht die Mittelschule als eine zwischen Elementarschule und Gymnasium sich emanzipierende Schulform. Die Ambivalenz in der Stellung äußert sich in dem wechselvollen Verhalten zwischen Standesschule und Öffnung für andere gesellschaftliche Schichten. Im Zusammenhang mit der Verweigerung der Berechtigungen muss die Mittelschule als Anstalt zur Befriedigung der Bildungsansprüche mittlerer Schichten gesehen werden. Sie wurde aber auch als schulischer Abwehrmechanismus der oberen Schichten gegenüber unteren gesellschaftlichen Schichten instrumentalisiert.
Ghana ist ein Musterbeispiel dafür, dass ein Entwicklungsland den Weg zu Good Governance schaffen kann. In vielen Studien wird dem Land im afrikanischen Vergleich heute bescheinigt, hier ein Vorreiter zu sein. Dies ist Ausgangslage der vorliegenden Studie, die der Frage nachgeht „Welche Gründe, Muster und Bedingungen führen zur Entstehung von Good Governance?“. Im Zentrum der vorliegenden Studie steht, wie aus der erkenntnisleitenden Fragestellung hervorgeht, eine empirische Untersuchung zur Entstehung von Good Governance und damit ein Transformationsprozess. Dieser wird bewusst über einen sehr langen Zeitraum (über ein halbes Jahrhundert) untersucht, um auch langfristige Entwicklungen einbeziehen zu können. Die Studie wird mit Hilfe eines „Mixed-Methods-Ansatzes“ sowohl unter Rückgriff auf quantitative als auch auf qualitative Methoden durchgeführt, was sich im Rückblick als sehr ertragreich erwiesen hat. Zunächst wird die Qualität der Governance über den gesamten Zeitraum anhand von sechs Indikatoren gemessen. Danach werden qualitativ die Gründe für die Fort- und Rückschritte analysiert. Dabei lassen sich immer wieder Systematiken herausarbeiten, wie zum Beispiel zirkuläre Entwicklungen, die über viele Jahre den Weg hin zu Good Governance verhinderten, bis jeweils Ausbrüche aus den Kreisläufen geschafft werden konnten. Sowohl in der demokratischen und rechtsstaatlichen Entwicklung als auch bezogen auf die Versorgung der Bevölkerung mit öffentlichen Gütern und die wirtschaftliche Entwicklung. Auch wenn die verschiedenen Bereiche von Good Governance zunächst einzeln untersucht werden, so zeigen sich gleichzeitig deutlich die Wechselwirkungen der Komponenten. Zum Beispiel kristallisiert sich klar heraus, dass Rechtsstaatlichkeit sowohl auf die Stabilität politischer Systeme wirkt, als auch auf die wirtschaftliche Entwicklung. Ebenso beeinflussen diese wiederum die Korruption. Ähnliche Verknüpfungen lassen sich auch bei allen anderen Bereichen nachvollziehen. Die Entwicklung eines Landes kann also nur unter Berücksichtigung eines komplexen Governance-Systems verstanden und erklärt werden. Dabei können die Wechselwirkungen entweder konstruktiv oder destruktiv sein. Die Verflechtungen der einzelnen Bereiche werden in einem Negativ- und dann in einem Positiv-Szenario festgehalten. Diese Idealtypen-Bildung spitzt die Erkenntnisse der vorliegenden Arbeit zu und dient dem analytischen Verständnis der untersuchten Prozesse. Die Untersuchung zeigt, wie Good Governance über das Zusammenspiel verschiedener Faktoren entstehen kann und dass es wissenschaftlich sehr ertragreich ist, Transformationsforschung auf ein komplexes Governance-System auszuweiten. Hierbei werden die vielen empirisch erarbeiteten Ergebnisse zu den einzelnen Transformationen zu komplexen, in sich greifenden Gesamtszenarien zusammengeführt. Da es bisher keine explizite Good Governance-Transformationsforschung gab, wurde hiermit ein erster Schritt in diese Richtung getan. Es wird darüber hinaus deutlich, dass eine Transformation zu Good Governance nicht durch eine kurzfristige Veränderung der Rahmenbedingungen zu erreichen ist. Es geht um kulturelle Veränderungen, um Lernprozesse, um langfristige Entwicklungen, die in der Studie am Beispiel Ghana analysiert werden. In vielen vorangegangenen Transformationsstudien wurde diese zeitliche Komponente vernachlässigt. Ghana hat bereits viele Schritte getan, um einen Weg in die Zukunft und zu Good Governance zu finden. Die Untersuchung dieser Schritte ist Kern der vorliegenden Arbeit. Der Weg Ghanas ist jedoch noch nicht abgeschlossen.
Balance ist als die koordinative Fähigkeit anzusehen, die am meisten durch das Sinnes- und Nervensystem determiniert ist. Damit könnte sie als Indikator für Funktionseinschränkungen des Nervensystems - etwa bei Lernstörungen - von Wert sein. Aussagen über Zusammenhänge zwischen Balance und Kognition werden vielfach diskutiert, sind jedoch noch nicht hinreichend wissenschaftlich gesichert. Hieraus wird die zentrale Zielstellung der Arbeit abgeleitet, das Wissen über somatische und psychische Determinanten von Balance zu erweitern. Betrachtet werden daher bei Vorschulkindern mögliche Zusammenhänge mit dem Geschlecht, mit den anthropometrischen Parametern Körperhöhe und Fußgröße, mit Statikstörungen des Beckens und der Intelligenzleistung. An der Studie nahmen insgesamt 201 drei- bzw. vierjährige Kinder sowie 148 fünf- bzw. sechsjährige Kinder teil. Die Balancefähigkeit wurde mit Hilfe einer Kraftmomentenplattform sowie eines klinischen Tests erfasst und mit anthropometrischen Parametern, qualitativen statischen Befunden bzw. den Ergebnissen des BIVA-Intelligenztests nach SCHAARSCHMIDT verglichen. Für die Auswertung der Balanceparameter wurden sowohl lineare als auch nichtlineare Verfahren eingesetzt, die zum Teil gegenläufige Trends in Bezug auf Zusammenhänge lieferten. Im Ergebnis konnte ein starker Einfluss des Geschlechts nachgewiesen werden. Mädchen zeigten eine bessere Balanceleistung als Jungen sowohl bei 3-Jährigen als auch bei 6-Jährigen. Dies wird als Beleg für den geschlechtsspezifischen Vorsprung der sensomotorischen Entwicklung bei den Mädchen im Alter von 3 bis 6 Jahren angesehen. Außerdem gab es einige Hinweise auf einen Zusammenhang mit der Körperhöhe bzw. Fußlänge. Ein Zusammenhang mit den Umstellungen des ersten Gestaltwandels wird vermutet. Die Daten sprechen für einen statistisch schwachen Einfluss von Störungen der Beckenstatik (Beckenverwringung) auf die Balance bei den Kindern. Es wird vermutet, dass die Verrechnung Balance relevanter Inputs durch nozizeptive Impulse beeinträchtig werden kann. Dies könnte Anlass sein, diesen Aspekt bei Funktionsstörungen mit zu berücksichtigen. Signifikante Zusammenhänge mit Ergebnissen des BIVA-Intelligenztests konnten kaum gefunden werden. Allerdings fallen überzufällig viele Mittelwertvergleiche in Richtung der Hypothese aus, erreichen jedoch nicht Signifikanzniveau. Dies könnte ein Hinweis auf einen schwachen Zusammenhang darstellen, der jedoch mit einer größeren Gruppe noch bestätigt werden müsste. Weitere Forschung auf diesem Gebiet ist erforderlich. Sollte hinreichende Evidenz erreicht werden können, so könnte in der Förderung koordinativer Fähigkeiten und insbesondere der posturalen Balance eine wichtige pädagogische Reserve liegen.
Die vorliegende Studie beschäftigt sich mit dem Berufseinstieg von Lehrpersonen und untersucht Zusammenhänge zwischen der Nutzung von Lerngelegenheiten, sozialer Kooperation, individuellen Determinanten und Kompetenzselbsteinschätzungen, die erstmalig in dieser Zusammenstellung überprüft worden sind.
Die Literaturrecherche machte deutlich, dass der Berufseinstieg eine besonders wichtige Phase für die berufliche Sozialisation darstellt. Die Nutzung von Lerngelegenheiten wurde empirisch noch nicht sehr oft untersucht vor allem nicht im Zusammenhang mit individuellen Determinanten und die Kooperation meist nur unter dem Fokus der Bedeutung für die Schule.
An der empirischen Untersuchung nahmen 223 berufseinsteigende Lehrkräfte aus dem Allgemeinen Pflichtschulbereich in Niederösterreich teil, die verpflichtend in den ersten beiden Dienstjahren Fortbildungen besuchen müssen. Diese Situation ist einzigartig in Österreich, da es nur in diesem Bundesland seit 2011 eine verpflichtend zu besuchende Berufseinstiegsphase gibt. Ab 2019 wird es in Österreich eine Induktionsphase für alle Lehrkräfte geben, die in den Beruf einsteigen.
Mit Hilfe von Strukturgleichungsmodellen wurden die Zusammenhänge untersucht und es zeigte sich, dass es diese in allen Bereichen gibt. Am Ende konnte ein neues Theoriemodell zur Nutzung von Lerngelegenheiten abgeleitet werden, das sich in Theorien zu professionellen Kompetenzentwicklung und zu Lernen in Aus-, Fortund Weiterbildung einordnen lässt.
Problemstellung: Schuleingangsuntersuchungen belegen zunehmend Defizite in der motorischen und kognitiven Entwicklung von Einschülern. Im Hinblick auf Präventivmaßnahmen gilt dem motorischen und kognitiven Entwicklungsstand von Vorschulkindern ein verstärktes Forschungsinteresse. Die bisherige Wissensbasis soll mit aktuellen Untersuchungsergebnissen zum Zusammenhang von Motorik und Kognition bei Vorschulkindern erweitert werden. Methodik: Untersucht wurden 101 Kinder in vier Potsdamer Kitas im Alter von 3,5-4,6 Jahren. Zur Überprüfung der koordinativen und konditionellen Fähigkeiten wurden Standweitsprung, Sechs-Meter-Lauf, Balancieren, Einbeinstand und Seitliches Umsetzen sowie Handkoordination eingesetzt (KTK; Kiphard & Schilling 1972; Vogt 1978). Zusätzlich wurden in Anlehnung an das Brain-Gym-Konzept (Dennison 1984) körpermitteüberschreitende Armbewegungen qualitativ bewertet und auf Validität und Reliabilität geprüft. Die kognitiven Fähigkeiten wurden mit dem Bildbasierten Intelligenztest getestet (Schaarschmidt, Ricken, Kieschke & Preuß 2004). Ergebnisse: Jungen sind deutlich schneller und kräftiger als Mädchen, können aber geringfügig schlechter balancieren und feinkoordinieren. Ein Entwicklungssprung in den motorischen Leistungen ab dem vierten Lebensjahr konnte nachgewiesen werden. Weiterhin zeigte sich ein positiver signifikanter Zusammenhang zwischen der Gleichgewichtsfähigkeit und kognitiven Fähigkeiten bei den männlichen 3,5-Jährigen (r=.28-r=.32; p=0,01). Dies bestätigt: Je jünger die Kinder, desto stärker der Zusammenhang von Motorik und Intelligenz. Bei einseitiger Testung zeigten sich schwache signifikante Korrelationen von kognitiven Leistungen der Kinder und Qualifikation der Eltern (r=.18 - r=.21; p=0,01). Die Qualitative Bewertung der Arm- und Handbewegungen eignet sich wegen unbestätigter Validität und Reliabilität nicht als Untersuchungsmethode im Sinne einer frühfunktionellen Diagnostik.
Die vorliegende Studie beschäftigt sich mit dem nach einer Strukturveränderung in der Sekundarstufe I entstandenen Schulmodell der Neuen Mittelschule. Untersucht wird, ob sich durch dieses Schulmodell und der damit intendierten neuen Lehr-, Lern- und Prüfungskultur Zusammenhänge zwischen gemessenen mathematischen Kompetenzen der Schüler und den durch Lehrer vergebenen Jahresnoten feststellen lassen.
Die Literaturrecherche macht deutlich, dass die Kritik an der Monokultur des leh-rerzentrierten Unterrichts zwar zu einer neuen Lehr-, Lern- und Prüfungskultur führt, deren Inhalte sind aber recht unterschiedlich, komplex und nicht eindeutig definiert. In der NMS soll die Leistungsbewertung als Lernhilfe fungieren, aber auch verlässliche Aussagen über die Leistung der Schüler treffen. Zur Wirkung der neuen Lernkultur in der NMS gibt es ebenso keine empirischen Befunde wie über die Wirkung der Leistungsbewertung.
An der empirischen Untersuchung nehmen 79 Schüler der sechsten Schulstufe aus drei Neuen Mittelschulen (dicht besiedelte, mittel besiedelte, dünn besiedelte Gemeinde) in Niederösterreich teil. In jeder Schule werden zwei Klassen untersucht. Dabei werden der Kompetenzstand in Mathematik, Schülerzentriertheit sowie Sozial- und Leistungsdruck aus Sicht der Schüler gemeinsam mit der Jah-resnote erhoben.
Für die Studie wird ein Pfadmodell entwickelt und mit einer Pfadanalyse ausge-wertet. Dabei zeigen sich zwar Zusammenhänge zwischen den gemessenen Kompetenzen in Mathematik und den Jahresnoten. Diese Jahresnoten besitzen über die Klasse bzw. die Schule hinaus aber nur eine bedingte Aussagekraft über die erbrachten Leistungen.
Diese Arbeit befasst sich mit den sogenannten relativähnlichen Sätzen im Frühneuhochdeutschen und leistet somit einen Beitrag zur Subordinationsforschung des älteren Deutsch. Relativähnliche Sätze sind formal durch ein satzinitiales anaphorisches d-Element und die Endstellung des finiten Verbs gekennzeichnet. Semantisch gesehen beziehen sie sich auf den vorangehenden Satz als Ganzes, indem sie ihn in bestimmter Weise weiterführen oder kommentieren. In der bisherigen Forschung werden diese Sätze satztypologisch als Hauptsätze mit Verbendstellung analysiert (vgl. dazu Maurer 1926, Behaghel 1932 und Lötscher 2000). Nach der ausführlichen Diskussion der formalen Abhängigkeitsmarker im älteren Deutsch sowie anhand einer umfangreichen korpusbasierten Untersuchung wird in dieser Arbeit gezeigt, dass relativähnliche Sätze im Frühneuhochdeutschen auch als abhängige Sätze - analog zu den weiterführenden Relativsätzen im Gegenwartsdeutschen - analysiert werden können. Die weiterführenden Relativsätze im Gegenwartsdeutschen enthalten satzinitial auch ein anaphorisches Element, das sich auf das Gesagte in dem vorangehenden Satz bezieht. Verbendstellung weisen sie ebenfalls auf (mehr zur Grammatik der weiterführenden Relativsätze vgl. insb. Brandt 1990 und Holler 2005). Über die Untersuchung relativähnlicher Sätze hinaus befasst sich diese Arbeit ausführlich mit formalen Abhängigkeitsmarkern des älteren Deutsch, wie Verbendstellung, Einleiter und afinite Konstruktion.
Im Fokus der bildungshistorischen und doppelbiografischen Dissertation steht die Darstellung des vielseitigen Reformengagements der Torhorst-Schwestern Adelheid und Marie im (Aus-) Bildungswesen der Weimarer Republik. Die Begriffe „Reform“ und „Engagement“ stellen tragende inhaltliche Signaturen der quellenbasierten Annäherung an das Geschwisterpaar dar. Thematisiert werden ihre Berufsbiografien in ihren jeweiligen bildungspolitischen sowie bildungspraktischen Wirkungskreisen – inmitten der ersten „echten“ deutschen Demokratie. Die Studie zielt insbesondere darauf ab, den Kreis der bildungshistorischen Repräsentantinnen für eine konstruktive Ausgestaltung des (Fort-)Bildungswesens im Sinne eines notwendigen, aber nicht realisierten Modernisierungs- und Demokratisierungsprozesses in jenem Zeitraum zu erweitern. Die Aufarbeitung des bisher in der bildungsgeschichtlichen Forschung weitestgehend unbekannten Schaffens vermag es, den vielschichtigen Bedeutungsebenen von Schulreform(en) und Reformpädagogik gerecht(er) zu werden. Die Arbeit intendiert zudem eine Horizonterweiterung des bildungshistorischen Blickfeldes – vor allem in Bezug auf bildungspolitische und schulpraktische Realisierungen von essenziellen Reformen in den Bereichen sekundärer (Aus-)Bildungseinrichtungen.
Die Schwestern bestimmten sowohl als kommunalpolitische als auch als schulpraktische Akteure die neue Praxis und die neuen Anforderungen der demokratischen Staatsform mit. Adelheid Torhorst kämpfte – über ihren kommunalen Verantwortungsradius hinausreichend – aktiv im Rahmen ihrer von 1924–1931 andauernden Mitgliedschaft im Bund der Freien Schulgesellschaften (BFS) für eine gesamte Weltlichkeit des deutschen Schul- und (Aus-)Bildungswesens. Beide Frauen mussten auf ihren Tätigkeitsebenen erfahren, dass ihre immer stärker werdenden sozialistisch geprägten Vorstellungen bezüglich der deutschen Bildungslandschaft Illusionen blieben. Vielmehr erkannten sie zunehmend einen Zusammenhang zwischen den etablierten Machtstrukturen; ein gesellschaftlicher Fortschritt, der sich in ihren Augen in einem sozial durchlässigen und weltlichen Bildungswesen formierte, erforderte vor allem strukturelle Veränderungen. Für diese jedoch gab es keine gesellschaftlichen und politischen Mehrheiten.
Die doppelbiografische Perspektive mit dem Fokus auf das Bleibende des Reformengagements sensibilisiert für gegenwärtige bildungspolitische Streitfragen. Der kritisch-reflexive Blick geht zunächst mit einer Würdigung der qualifizierenden deutschen (Aus-) Bildungslandschaft einher; schätzt die liberalen Errungenschaften wie die Entscheidungsfreiheit der Eltern in Bezug zum Besuch des Religionsunterrichts ihrer Kinder als ein Privileg einer demokratischen, sozial offenen Gesellschaft. Es braucht in einer herausfordernden Zukunft mehr denn je mutige Akteure mit progressivem Reformpotenzial. Das wegweisende Engagement der Torhorst-Schwestern stand im Kontext eines schulischen sowie gesellschaftlichen Fortschrittgedankens, der sowohl die Moderne positiv prägt und trägt, der aber auch für deren Krisen und Konflikte steht. Im gegenwärtigen (Aus-)Bildungswesen entstehen ebenso immer wieder neue Spannungen und Reformbedarfe, die es gilt, mit entsprechenden bildungspolitischen Richtlinien „von oben“ gesetzlich neu zu reglementieren – mit Leben gefüllt werden sie mit dem Engagement „von unten“.
Der W-Fragen-Erwerb stellt einen Teilbereich der kindlichen Syntaxentwicklung dar, die sich maßgeblich innerhalb der ersten drei Lebensjahre eines Kindes vollzieht. Eine wesentliche Rolle spielen dabei zwei Bewegungsoperationen, die sich auf die Position des Interrogativpronomens an die erste Stelle der W-Frage sowie die Position des Verbs an die zweite Stelle beziehen. In drei Studien wurde einerseits untersucht, ob deutschsprachige Kinder, die noch keine W-Fragen produzieren können, in der Lage sind, grammatische von ungrammatischen W-Fragen zu unterscheiden und andererseits, welche Leistungen sprachunauffällige und sprachauffällige deutschsprachige Kinder beim Verstehen und Korrigieren unterschiedlich komplexer W-Fragen (positive und negative W-Fragen) zeigen. Die Ergebnisse deuten auf ein frühes syntaktisches Wissen über W-Fragen im Spracherwerb hin und stützen damit die Annahme einer Kontinuität der kindlichen Grammatik zur Standardsprache. Auch scheinen sprachauffällige Kinder sich beim Erwerb von W-Fragen nicht qualitativ von sprachgesunden Kindern zu unterscheiden, sondern W-Fragen lediglich später korrekt umzusetzen. In beiden Populationen konnte ein syntaktischer Ökonomieeffekt beobachtet werden, der für eine spätere Umsetzung der Verbbewegung im Vergleich zur Bewegung des W-Elementes spricht.
Im Landschaftszustand und in der Landschaftsentwicklung kommen funktionale Beziehungen zwischen dem naturbedingten Energie-, Wasser- und Stoffhaushalt einerseits und den Auswirkungen der Landnutzung andererseits zum Ausdruck. Gegenwärtig verändert der globale Anstieg der bodennahen Temperaturen vielerorts den landschaftlichen Energie-, Wasser- und Stoffhaushalt, wobei besonders in Trockengebieten zu erwarten ist, dass dieser Trend in Verbindung mit einer unangepassten Landnutzung das Regenerationsvermögen der Vegetation einschränkt und zur Zerstörung der Bodendecke führt. Für die Mongolei und für benachbarte Gebiete Asiens sind in Szenarien zur globalen Erwärmung hohe Werte des Temperaturanstiegs prognostiziert worden. Eine globale Einschätzung der anthropogen induzierten Bodendegradation hat diese Region als stark oder extrem stark betroffen eingestuft. Vor diesem Hintergrund wurde im Uvs-Nuur-Becken, das im Nordwesten der Mongolei und damit in einer der trockensten Regionen des Landes gelegen ist, untersucht, wie sich der globale Temperaturanstieg auf der lokalen und regionalen Ebene widerspiegelt und wie der Landschaftshaushalt dabei verändert wird. Die Auswirkungen des sommerlichen Witterungsverlaufes auf den Landschaftszustand sind 1997 bis 1999 an einem Transsekt erfasst worden, das sich zwischen dem Kharkhiraa-Gebirge am Westrand des Beckens und dem See Uvs Nuur im Beckeninneren von den Polsterfluren und Matten der alpinen Stufe über die Gebirgswaldsteppe, die Trockensteppe bis zur Halbwüste erstreckt. An neun Messpunkten wurden witterungsklimatische Daten in Verbindung mit Merkmalen der Vegetation, des Bodens und der Bodenfeuchte aufgenommen. Die im Sommer 1998 gewonnenen Messwerte wurden mit Hilfe einer Clusteranalyse gebündelt und verdichtet. Auf dieser Grundlage konnten landschaftliche Zustandsformen inhaltlich gekennzeichnet, zeitlich eingeordnet und durch Zeit-Verhaltens-Modelle (Stacks) abgebildet werden. Aus den Zeit-Verhaltens-Modellen wird ersichtlich, dass man Zustandsformen, in denen die Hitze und die Trockenheit des Sommers 1998 besonders stark zum Ausdruck kommen, an allen Messpunkten beobachten kann, nimmt man die Station auf dem fast 3.000 m hohen Gipfel des Khukh Uul sowie die grundwasserbeeinflusste Station in unmittelbarer Seenähe aus. In ihrer extremen Form sind Trockenperioden jedoch nur im Beckeninneren und am Fuß der Randgebirge, also in der Halbwüste, in der Trockensteppe und in der Wiesensteppe aufgetreten. Im Bergwald sowie im Bereich der alpinen Matten und Polsterfluren fehlen sie. Am stärksten sind die grundwasserfreien Bereiche der Halbwüste von der Hitze und Niederschlagsarmut des Sommers 1998 betroffen. An vier Fünfteln der Tage des Beobachtungszeitraumes herrscht an diesem Messpunkt extreme Trockenheit. Es fällt entweder gar kein Niederschlag oder nur so wenig, dass der seit dem Frühjahr erschöpfte Bodenwasservorrat nicht aufgefüllt wird. Das Verhältnis zwischen Niederschlag und potenzieller Verdunstung liegt hier bei 1:12. In der Halbwüste zeichnet sich eine fortschreitende Desertifikation ab, zumal hier eine nichtangepasste Weidenutzung dominiert, in der Ziegen eine immer größere Rolle spielen. Dies gilt insbesondere für Bereiche in Siedlungsnähe. Örtlich ist auch der Bestand der Trockensteppe gefährdet, die sich an die Halbwüste zum Beckenrand hin anschließt. Hier ist nicht nur die Viehdichte am höchsten, sondern hier werden auch die meisten unbefestigten Fahrwege wild angelegt und die Bodendecke damit zerstört. Dies kann im Endeffekt zu einem Übergreifen von Prozessen der Desertifikation führen. Aus methodischer Sicht zeigt sich, dass die Kennzeichnung landschaftlicher Zustandsformen durch Zeit-Verhaltens-Modelle die Ermittlung der Auswirkungen von Witterung und Klima auf den Landschaftszustand erleichtert, da sie deren Aussage konzentriert. Zur Interpretation der Ergebnisse ist jedoch ein Rückgriff auf die beschreibende Darstellung der Messwerte notwendig. Die im westlichen Uvs-Nuur-Becken und seinen Randgebirgen angewandte Verfahrensweise ermöglicht es, globale Aussagen zur globalen Erwärmung der Kontinente regional oder lokal zu überprüfen und zu untersetzen."
Zum Einfluss von Adaptivität auf die Wahrnehmung von Komplexität in der Mensch-Technik-Interaktion
(2021)
Wir leben in einer Gesellschaft, die von einem stetigen Wunsch nach Innovation und Fortschritt geprägt ist. Folgen dieses Wunsches sind die immer weiter fortschreitende Digitalisierung und informatische Vernetzung aller Lebensbereiche, die so zu immer komplexeren sozio-technischen Systemen führen. Ziele dieser Systeme sind u. a. die Unterstützung von Menschen, die Verbesserung ihrer Lebenssituation oder Lebensqualität oder die Erweiterung menschlicher Möglichkeiten. Doch haben neue komplexe technische Systeme nicht nur positive soziale und gesellschaftliche Effekte. Oft gibt es unerwünschte Nebeneffekte, die erst im Gebrauch sichtbar werden, und sowohl Konstrukteur*innen als auch Nutzer*innen komplexer vernetzter Technologien fühlen sich oft orientierungslos. Die Folgen können von sinkender Akzeptanz bis hin zum kompletten Verlust des Vertrauens in vernetze Softwaresysteme reichen. Da komplexe Anwendungen, und damit auch immer komplexere Mensch-Technik-Interaktionen, immer mehr an Relevanz gewinnen, ist es umso wichtiger, wieder Orientierung zu finden. Dazu müssen wir zuerst diejenigen Elemente identifizieren, die in der Interaktion mit vernetzten sozio-technischen Systemen zu Komplexität beitragen und somit Orientierungsbedarf hervorrufen.
Mit dieser Arbeit soll ein Beitrag geleistet werden, um ein strukturiertes Reflektieren über die Komplexität vernetzter sozio-technischer Systeme im gesamten Konstruktionsprozess zu ermöglichen. Dazu wird zuerst eine Definition von Komplexität und komplexen Systemen erarbeitet, die über das informatische Verständnis von Komplexität (also der Kompliziertheit von Problemen, Algorithmen oder Daten) hinausgeht. Im Vordergrund soll vielmehr die sozio-technische Interaktion mit und in komplexen vernetzten Systemen stehen. Basierend auf dieser Definition wird dann ein Analysewerkzeug entwickelt, welches es ermöglicht, die Komplexität in der Interaktion mit sozio-technischen Systemen sichtbar und beschreibbar zu machen.
Ein Bereich, in dem vernetzte sozio-technische Systeme zunehmenden Einzug finden, ist jener digitaler Bildungstechnologien. Besonders adaptiven Bildungstechnologien wurde in den letzten Jahrzehnten ein großes Potential zugeschrieben. Zwei adaptive Lehr- bzw. Trainingssysteme sollen deshalb exemplarisch mit dem in dieser Arbeit entwickelten Analysewerkzeug untersucht werden. Hierbei wird ein besonderes Augenmerkt auf den Einfluss von Adaptivität auf die Komplexität von Mensch-Technik-Interaktionssituationen gelegt. In empirischen Untersuchungen werden die Erfahrungen von Konstrukteur*innen und Nutzer*innen jener adaptiver Systeme untersucht, um so die entscheidenden Kriterien für Komplexität ermitteln zu können. Auf diese Weise können zum einen wiederkehrende Orientierungsfragen bei der Entwicklung adaptiver Bildungstechnologien aufgedeckt werden. Zum anderen werden als komplex wahrgenommene Interaktionssituationen identifiziert. An diesen Situationen kann gezeigt werden, wo aufgrund der Komplexität des Systems die etablierten Alltagsroutinen von Nutzenden nicht mehr ausreichen, um die Folgen der Interaktion mit dem System vollständig erfassen zu können. Dieses Wissen kann sowohl Konstrukteur*innen als auch Nutzer*innen helfen, in Zukunft besser mit der inhärenten Komplexität moderner Bildungstechnologien umzugehen.
Die Ausprägung der Lateralität der Körperextremitäten steht in engem Zusammenhang mit der Hemisphärenspezialisierung des menschlichen Gehirns. Die Lateralität und die Dominanz einer Hemisphäre mit ihren Auswirkungen auf die Leistungsfähigkeit ist ein bislang unvollständig untersuchtes Phänomen im Sport. In der vorliegenden Arbeit soll daher die Bedeutung der Seitigkeitsausprägung im Rahmen sportlicher Bewegungsabläufe geprüft werden. Sowohl bei Messungen im "Freiwasser", als auch in der "Kanu–Gegenstromanlage" im Bereich des Kanurennsportes werden seit einigen Jahren sich in Qualität und Quantität unterscheidende Kraft–Zeit–Funktionen der linken und rechten Körperseite beobachtet, die zwar dokumentiert, aber bislang ungeprüft in ihrer Bedeutung als leistungsbeeinflussend angenommen werden. Im Zeitraum von Oktober 1997 bis Oktober 2000 wurden 275 Kajakfahrer und Canadierfahrer im Alter zwischen 11 und 20 Jahren zweimal jährlich (März und Oktober) mit einem umfangreichen trainings- und bewegungswissenschaftlichen sowie biomechanischen Instrumentarium untersucht. Die Athleten gehören zum Nachwuchs- und Anschlusskader des LKV Brandenburg. Schwerpunkt der Fragestellung ist der Zusammenhang von auftretenden Kraftdifferenzen zwischen der linken und rechten oberen Extremität und sportartspezifischen Leistungen unter Laborbedingungen und Feldbedingungen. Es wurden objektive Daten zu ausgewählten Kraftfähigkeiten der oberen Arm–Beuge–Schlinge an einem Kraftdiagnosegerät, Kraftverläufe am Messpaddel während Leistungsüberprüfungen im "Kanu–Gegenstromkanal" und im "Freiwasser" über 250 m und 2.000 m im Jahresverlauf erhoben. Die Ergebnisse zeigen einen Trend der im Altersverlauf ansteigenden Differenz der Mittelwertunterschiede in der Maximalkraft zwischen dem linken und rechten Arm. Bei bestehenden Maximalkraftdifferenzen zwischen linker und rechter oberer Extremität in der Längsschnittgruppe liegen die Leistungen mit dem rechten Arm deutlich über den Kraftleistungen des linken Arms und sind nicht zufällig. Mit steigendem Maximalkraftniveau nimmt überraschenderweise auch die Differenz der Maximalkraft zwischen der linken und rechten oberen Extremität trotz bilateralen Trainings zu. Die Ergebnisse der EMG–Analyse bestätigen, dass die Maximalkraft leistungsbestimmend für die Bootsleistungen ist. In den EMG–Signalverläufen werden die unterschiedlichen Belastungen der Labor– und Feldbedingungen mit individuellen Charakteristika nachgezeichnet. Deutlich unterscheiden sich die Kraftverläufe im "Freiwasser" gegenüber den Kraftverläufen in der "Kanu–Gegenstromanlage". Bei der vorliegenden Untersuchung handelt es sich um eine erste empirische Arbeit zur Auswirkung von Seitigkeitsunterschieden in zyklischen Sportarten auf der Expertiseebene. In der Untersuchung wurden methodische Verfahren eingesetzt, die dem derzeitigen Forschungsstand in der Trainings- und Bewegungswissenschaft entsprechen. Neben varianzanalytischen Verfahren der Auswertung zur Darstellung von Mittelwertunterschieden und Zusammenhänge prüfenden Verfahren wurden ebenso explorative EMG–Analysen angewandt. Die Ergebnisse aus dem Längsschnitt belegen bei ausschließlich rechtshändigen Probanden, dass die Schlussfolgerung von bevorzugter Extremität auf ein höheres Kraftniveau nicht eineindeutig ist. Zwischen den oberen Extremitäten bei Kanurennsportlern bestehen nicht nur zufällige Kraftunterschiede, trotz des bilateralen Trainings. Kontrovers diskutiert wird die Beziehung von bevorzugter Extremität und der Höhe der Kraftentfaltung. Im Alltagsverständnis wird häufig angenommen, dass ein höheres Maximalkraftniveau in der Extremität vorliegen muss, die auch die bevorzugte (z.B. Schreibhand) ist (WIRTH & LIPHARDT, 1999). Diese Eindeutigkeit konnte in der durchgeführten Untersuchung nicht bestätigt werden. Wie die Ergebnisse dieser Untersuchung deutlich zeigen, nimmt mit der höheren Maximalkraft aber auch die Differenz der Kraftleistungen zwischen dem linken und rechten Arm bei bilateral ausgerichtetem Training zu. FISCHER (1988; 1992) wies nach, dass sich ein Training auf der subdominanten Seite in einem kontralateralen Leistungstransfer auf der dominanten Seite positiv auswirkte. Erkenntnisse von KUHN (1986) und HOLLMANN & HETTINGER (2000) unterstützen nachhaltig die Ergebnisse. Die EMG–Ergebnisse zeigen die individuelle Reaktion auf die Belastungsanforderungen. Die elektromyographischen Daten beziehen sich auf den neuromuskulären Komplex. Somit sprechen hohe Amplitudenwerte einerseits für eine hohe Innervation der beteiligten motorischen Einheiten an der Bewegungsausführung und andererseits für einsetzende Ermüdungserscheinungen im Muskel. In Bezug auf die Ermüdung der oberen Extremitätenmuskeln der rechten und linken Seite beschreiben WILLIAMS, SHARMA & BILODEAU (2002) keine signifikanten Unterschiede zwischen der dominanten und nichtdominanten Handseite.
Die Frage nach der Herkunft und der dynamischen Entwicklung langlebiger kosmischer Magnetfelder ist in vielen Details noch unbeantwortet. Es besteht zwar kein Zweifel daran, dass das Magnetfeld der Erde und anderer kosmischer Objekte durch den sogenannten Dynamoeffekt verursacht werden, der genaue Mechanismus als auch die notwendigen Voraussetzungen und Randbedingungen der zugrundeliegenden Strömungen sind aber weitgehend unbekannt. Die für einen Dynamo interessanten Strömungsmuster, die im Inneren von Himmelskörpern durch Konvektion und differentielle Rotation entstehen, sind Konvektionsrollen parallel zur Rotationsachse. Auf einer Strömung mit eben solcher Geometrie, der sogenannten Roberts-Strömung, basieren die in der vorliegenden Arbeit untersuchten Dynamomodelle. Mit Methoden der nichtlinearen Dynamik wird versucht, das Systemverhalten bei Änderung der Systemparamter genauer zu charakterisieren. Die numerischen Untersuchungen beginnen mit einer Analyse der Dynamoaktivität der Roberts-Strömung in Abhängigkeit von den zwei freien Parametern in den Modellgleichungen, der magnetischen Prandtl-Zahl und der Stärke des Energieinputs. Gefunden werden verschiedene Lösungstypen die von einem stationären Magnetfeld über periodische bis zu chaotischen Zuständen reichen. Die yugrundeliegenden Symmetrien werden beschrieben und die Bifurkationen, die zum Wechsel der Lösungstypen führen, charakterisiert. Zusätzlich gibt es Bereiche bei sehr kleinen Prandtl-Zahlen, in denen überhaupt kein Dynamo existiert. Dieses Verhalten wird in der Literatur auch für viele andere numerisch ausgewertete Modelle beschrieben. Im Übergangsbereich zwischen dynamoaktivem und dynamoinaktivem Bereich wird das Auftreten einer sogenannten Blowout-Bifurkation gefunden. Desweiteren beschäftigt sich die Arbeit mit der Frage, inwiefern Helizität, also eine schraubenförmige Bewegung, der Strömung den Dynamoeffekt beeinflusst. Dazu werden ähnliche Strömungstypen verglichen, die sich hauptsächlich in ihrem Helizitätswert unterscheiden. Es wird gefunden, dass ein bestimmter Wert der Helizität nicht unterschritten werden darf, um einen stabilen Roberts-Dynamo zu erhalten.
Einleitung & Problemstellung: Beschwerden nach Beschleunigungsverletzungen der Halswirbelsäule sind oft nur unzureichend einzuordnen und diagnostizierbar. Eine eindeutige Diagnostik ist jedoch für eine entsprechende Therapie wie auch möglicherweise entstehende versicherungsrechtliche Forderungen notwendig. Die Entwicklung eines geeigneten Diagnoseverfahrens liegt damit im Interesse von Betroffenen wie auch Kostenträgern. Neben Störungen der Weichteilgewebe ist fast immer die Funktion der Halsmuskulatur in Folge eines Traumas beeinträchtigt. Dabei wird vor allem die sensorische Funktion der HWS-Muskulatur, die an der Regulation des Gleichgewichts beteiligt ist, gestört. In Folge dessen kann angenommen werden, dass es zu einer Beeinträchtigung der Gleichgewichtsregulation kommt. Die Zielstellung der Arbeit lautete deshalb, die möglicherweise gestörte Gleichgewichtsregulation nach einem Trauma im HWS-Bereich apparativ zu erfassen, um so die Verletzung eindeutig diagnostizieren zu können. Methodik: Unter Verwendung eines posturographischen Messsystems mit Kraftmomentensensorik wurden bei 478 Probanden einer Vergleichsgruppe und bei 85 Probanden eines Patientenpools Kraftmomente unter der Fußsohle als Äußerung der posturalen Balanceregulation aufgezeichnet. Die gemessenen Balancezeitreihen wurden nichtlinear analysiert, um die hohe Variabilität der Gleichgewichtsregulation optimal zu beschreiben. Über die dabei gewonnenen Parameter kann überprüft werden, ob sich spezifische Unterschiede im Schwankungsverhalten anhand der plantaren Druckverteilung zwischen HWS-Traumatisierten und den Probanden der Kontrollgruppe klassifizieren lassen. Ergebnisse: Die beste Klassifizierung konnte dabei über Parameter erzielt werden, die das Schwankungsverhalten in Phasen beschreiben, in denen die Amplitudenschwankungen relativ gering ausgeprägt waren. Die Analysen ergaben signifikante Unterschiede im Balanceverhalten zwischen der Gruppe HWS-traumatisierter Probanden und der Vergleichsgruppe. Die höchsten Trennbarkeitsraten wurden dabei durch Messungen im ruhigen beidbeinigen Stand mit geschlossenen Augen erzielt. Diskussion: Das posturale Balanceverhalten wies jedoch in allen Messpositionen eine hohe individuelle Varianz auf, so dass kein allgemeingültiges Schwankungsmuster für eine Gruppengesamtheit klassifiziert werden konnte. Eine individuelle Vorhersage der Gruppenzugehörigkeit ist damit nicht möglich. Die verwendete Messtechnik und die angewandten Auswerteverfahren tragen somit zwar zu einem Erkenntnisgewinn und zur Beschreibung des Gleichgewichtsverhaltens nach HWS-Traumatisierung bei. Sie können jedoch zum derzeitigen Stand für den Einzelfall keinen Beitrag zu einer eindeutigen Bestimmung eines Schleudertraumas leisten.
In dieser Arbeit wurden die Möglichkeiten und Grenzen für Zirkulardichroismus-Messungen mit Synchrotronstrahlung untersucht. Dazu wurde ein Messaufbau für Zirkulardichroismus-Messungen an zwei Strahlrohren am Berliner Elektronenspeicherring für Synchrotronstrahlung eingesetzt, die für Messungen im Bereich des ultravioletten Lichts geeignet sind. Eigenschaften der Strahlrohre und des Messaufbau wurden in einigen wichtigen Punkten mit kommerziellen Zirkulardichroismus-Spektrometern verglichen. Der Schwerpunkt lag auf der Ausdehnung des zugänglichen Wellenlängenbereichs unterhalb von 180 nm zur Untersuchung des Zirkulardichroismus von Proteinen in diesem Bereich. In diesem Bereich ist es nicht nur die Lichtquelle sondern vor allem die Absorption des Lichts durch Wasser, die den Messbereich bei der Messung biologischer Proben in wässriger Lösung einschränkt. Es wurden Bedingungen gefunden, unter denen der Messbereich auf etwa 160 nm, in einigen Fällen bis auf 130 nm ausgedehnt werden konnte. Dazu musste die Pfadlänge deutlich reduziert werden und verschieden Probenküvetten wurden getestet. Der Einfluss der dabei auftretenden Spannungsdoppelbrechung in den Probenküvetten auf das Messsignal konnte mit einem alternativen Messaufbau deutlich reduziert werden. Systematische Fehler im Messsignal und auftretende Strahlenschäden begrenzen jedoch die Zuverlässigkeit der gemessenen Spektren. Bei Proteinfilmen schränkt die Absorption von Wasser den Messbereich kaum ein. Es wurden jedoch meist deutliche Unterschiede zwischen den Spektren von Proteinfilmen und den Spektren von Proteinen in wässriger Lösung festgestellt. Solange diese Unterschiede nicht minimiert werden können, stellen Proteinfilme keine praktikable Alternative zu Messungen in wässriger Lösung dar.
Die Arbeit geht der Frage nach, wie Innovationen in einer Organisation des öffentlichen Sektors aufgenommen wurden und zu welchen Veränderungen dies führte. Im Vordergrund steht hier nicht die Innovation selbst, sondern vielmehr die Anpassungsmechanismen in der Organisation. Folgende Forschungsfragen wurden dazu gewählt:
1. Wie wurde das Instrument Zielsteuerung bzw. Zielvereinbarung im öffentlichen Sektor eingeführt und in die Managementroutinen integriert?
2. Welche Faktoren führen zu einer Integration der Zielsteuerung in die Managementroutinen?
3. Welche Empfehlungen für die Praxis lassen sich daraus ableiten?
Dazu wurde ein Landesbetrieb in Brandenburg detailliert untersucht und 31 Interviews mit Führungskräften der zweiten und dritten Managementebene geführt. In dieser Organisation wurde im Rahmen der deutschlandweiten Reformbewegung in der öffentlichen Verwaltung das Instrument Zielsteuerung bzw. Zielvereinbarung eingeführt und mit ganz konkreten Erwartungen verbunden. Als Untersuchungseinheit der möglichen Anpassungen und Veränderungen wurde das Konstrukt der Managementroutinen herangezogen, welche als kollektive Handlungsmuster ganz bewusst individuelle Verhaltensweisen ausklammerten.
Die Arbeit konnte eine Reihe von früheren Erkenntnissen bestätigen und zudem nachweisen, dass, entgegen des häufigen Vorurteils, Innovationen aus dem privatwirtschaftlichem Raum doch auch zu positiven Veränderungen in Organisationen der öffentlichen Hand führen können. Es kam hier jedoch nicht zur Entwicklung neuer, sondern zu einer Anpassung der bestehenden Routinen. Auf dieser Basis konnte festgestellt werden, dass ein stufenweiser Einführungsvorgang zunächst auf der Ebene der veränderten Zielvorstellungen der Führungskräfte zum Erfolg führte. Erst nach der Anpassung auf dieser „ostentativen“ Ebene kam es mit etwas Verzögerung zu einer Veränderung auf der Ebene der konkreten Handlungen. Im Hinblick auf die Einflussfaktoren der Innovation konnte festgestellt werden, dass viele Aspekte der Zielsetzungstheorie nach wie vor relevant sind und instabile politische Rahmenbedingungen zu wesentlichen Einschränkungen der Entfaltungsmöglichkeiten der Innovation führen können. Für viele Einflussfaktoren konnten allerdings sowohl positive als auch negative Wirkungen identifiziert werden.
Zeugenschaft im Bild
(2015)
Zentrales Anliegen der Dissertation ist, Zeugenschaft als visuelle Strategie zu beleuchten. In Abgrenzung zur These der Undarstellbarkeit der Shoah wird der Begriff der Sichtbarmachung nutzbar gemacht, um Prozesse und die Wirkung von Bildern im Zusammenhang mit Zeugenschaft herauszustellen. Ausgangspunkt dabei ist, dass bildliche Zeugnisse einen Gegenpol zu den standardisierten Visualisierungspraktiken der Shoah bieten, sprich dem historischen Bildmaterial aufgenommen durch die Alliierten und der Nationalsozialisten. In der Arbeit wird das historische Bildmaterial als Visualisierungspraxis problematisiert und visuellen Zeugnissen gegenübergestellt, die Augen- und Überlebenszeugen der Shoah, aber auch authentische Orte des Geschehens aus einer nachträglichen Perspektive zeigen. Dabei werden insbesondere zwei kritische Strategien des Umgangs mit historischen Bildern der Shoah hervorgehoben: das Hinterfragen von Archivbildern innerhalb des Films (Harun Farockis AUFSCHUB, 2007) und die Verweigerung von Archivbildern aus der Zeit des Zweiten Weltkrieges (Claude Lanzmanns SHOAH, 1985).
Seit den 1990er Jahren wird Zeugenschaft in der Forschung als philosophische, moralische und erkenntnistheoretische Kategorie in den USA, aber auch in Deutschland viel diskutiert. Dabei wurde die bild- und medienwissenschaftliche Perspektive im Zusammenhang mit Zeugenschaft kaum beleuchtet, darin liegt der Forschungsbeitrag der Arbeit. Insbesondere drei Gesichtspunkte von visueller Zeugenschaft werden herausgearbeitet: 1) die Sichtbarmachung der Überlebenden und der Orte des Geschehens im Jetzt, 2) die nichtsprachlichen Aspekte von Zeugenaussagen und 3) die Rolle des Zuschauers, der durch den Akt des Sehens in einem Imaginationsprozess eine Verknüpfung zwischen den Bildern aus der Jetztzeit und der nicht-sichtbaren Vergangenheit herstellt.
Polen nimmt eine besondere historische Rolle als Zentrum des europäischen Judentums bis zum Zweiten Weltkrieg und gleichzeitig als »Schauplatz des Holocaust« und Ort der Augenzeugenschaft ein. Maßgeblich hat Claude Lanzmanns Film SHOAH dazu beigetragen, die Konzentrations- und Vernichtungslager im Polen der Nachkriegszeit sichtbar zu machen, und damit nicht nur Generationen von polnischen Filmemachern und Künstlern nach ihm beeinflusst, sondern auch kontroverse Debatten in Polen ausgelöst. Anhand der ausgewählten Filme lässt sich in der polnischen Erinnerungskultur seit der Wende von 1989 eine Hinwendung zur polnisch-jüdischen Geschichte erkennen, die sich verstärkt mit den Fragen der polnischen Mittäterschaft und Schuld an der Shoah auseinandersetzt.
Der Untersuchungsgegenstand unterteilt sich in zwei Formate: Dokumentar- und Kunstfilm. Einerseits ist das auf ihre unterschiedlichen Produktions- und Rezeptionsbedingungen sowie die Länge der Arbeiten zurückzuführen. Andererseits bewegen sich die Kategorien auf verschiedenen Reflexionsebenen und zielen auf unterschiedliche Wirkungen beim Zuschauer ab. Während sich in den Dokumentarfilmen zum Teil explizite Bezüge (aber auch Abgrenzungen) zum Lanzmann’schen Projekt erkennen lassen, handelt es sich bei den Produktionen des zeitgenössischen Künstlers Artur Żmijewski um einen Meta-Diskurs, der auf radikale und provokative Art und Weise bestehende erinnerungskulturelle Praktiken ausstellt und kritisch hinterfragt.
Im ersten Teil der Arbeit wurden Strategien zur Analyse von Transkripten erarbeitet. Die ersten Versuche zielten darauf ab, in mit Glaskapillaren genommenen Einzelzellproben verschiedener Gewebeschichten RT-PCR durchzuführen, um spezifische Transkripte nachweisen zu können. Dies gelang für eine Reihe von Genen aus verschiedenen Pflanzenspezies. Dabei konnten sowohl Transkripte stark wie auch schwach exprimierter Gene nachgewiesen werden. Für die Erstellung von Gewebe-spezifischen Expressionsprofilen war es notwendig, die in vereinigten Zellproben enthaltene mRNA zunächst zu amplifizieren, um eine ausreichende Menge für Arrayhybridisierungen zu erhalten. Vor der Vermehrung wurde die mRNA revers transkribiert. Es wurden daran anschließend verschiedene Amplifikationsstrategien getestet: Die neben Tailing, Adapterligation und anderen PCR-basierenden Protokollen getestete Arbitrary-PCR hat sich in dieser Arbeit als einfache und einzige Methode herausgestellt, die mit so geringen cDNA-Mengen reproduzierbar arbeitet. Durch Gewebe-spezifische Array-hybridisierungen mit der so amplifizierten RNA konnten schon bekannte Expressionsmuster verschiedener Gene, vornehmlich solcher, die an der Photosynthese beteiligt sind, beobachtet werden. Es wurden aber auch eine ganze Reihe neuer offensichtlich Gewebe-spezifisch exprimierter Gene gefunden. Exemplarisch für die differentiell exprimierten Gene konnte das durch Arrayhybridisierungen gefundene Expressionsmuster der kleinen Untereinheit von Rubisco verifiziert werden. Hierzu wurden Methoden zum Gewebe-spezifischen Northernblot sowie semiquantitativer und Echtzeit-Einzelzell-RT-PCR entwickelt. Im zweiten Teil der Arbeit wurden Methoden zur Analyse von Metaboliten einschließlich anorganischer Ionen verwendet. Es stellte sich heraus, daß die multiparallele Methode der Gaschromatographie-Massenspektrometrie keine geeignete Methode für die Analyse selbst vieler vereinigter Zellinhalte ist. Daher wurde auf Kapillarelektrophorese zurückgegriffen. Eine Methode, die mit sehr kleinen Probenvolumina auskommt, eine hohe Trennung erzielt und zudem extrem geringe Detektionslimits besitzt. Die Analyse von Kohlenhydraten und Anionen erfordert eine weitere Optimierung. Über UV-Detektion konnte die K+-Konzentration in verschiedenen Geweben von A. thaliana bestimmt werden. Sie lag in Epidermis und Mesophyll mit ca. 25 mM unterhalb der für andere Pflanzenspezies (Solanum tuberosum und Hordeum vulgare) publizierten Konzentration. Weiter konnte gezeigt werden, daß zwölf freie Aminosäuren mittels einer auf Kapillarelektrophorese basierenden Methode in vereinigten Zellproben von Cucurbita maxima identifiziert werden konnten. Die Übertragung der Methode auf A. thaliana-Proben muß jedoch weiter optimiert werden, da die Sensitivität selbst bei Laser induzierter Fluoreszenz-Detektion nicht ausreichte. Im dritten und letzten Teil der Arbeit wurde eine Methode entwickelt, die die Analyse bekannter wie unbekannter Proteine in Gewebe-spezifischen Proben ermöglicht. Hierzu wurde zur Probennahme mittels mechanischer Mikrodissektion eine alternative Methode zur Laser Capture Microdissection verwendet, um aus eingebetteten Gewebeschnitten distinkte Bereiche herauszuschneiden und somit homogenes Gewebe anzureichern. Aus diesem konnten die Proteine extrahiert und über Polyacrylamidgelelektrophorese separariert werden. Banden konnten ausgeschnitten, tryptisch verdaut und massenspektrometrisch die Primärsequenz der Peptidfragmente bestimmt werden. So konnten als Hauptproteine im Mesophyll die große Untereinheit von Rubisco sowie ein Chlorophyll bindendes Protein gefunden werden. Die in dieser Arbeit entwickelten und auf die Modellpflanze Arabidopsis thaliana angewandten Einzelzellanalysetechniken erlauben es in Zukunft, physiologische Prozesse besser sowohl räumlich als auch zeitlich aufzulösen. Dies wird zu einem detaillierteren Verständnis mannigfaltiger Vorgänge wie Zell-Zell-Kommunikation, Signalweiterleitung oder Pflanzen-Pathogen-Interaktionen führen.
Im Rahmen dieser Arbeit wurden zwei humane Varianten des von Wang et al., 1999, erstmals beschriebenen muskelspezifischen Proteins Xin (Huhn und Maus) über Sequenzanalyse, Immunofluoreszenzmikroskopie, Transfektionsstudien und biochemischer Analyse näher charakterisiert. Die Proteine wurden mit human Xin related proteins 1 und 2 – hXirp1 und 2 –bezeichnet. Die Xin-Proteine enthielten bisher unbekannte, sowie spezifische, repetitive Motive, die aus jeweils mindestens 16 Aminosäuren bestanden. Ihre Aminosäuresequenz, mit einer Vielzahl weiterer putativer Motivsequenzen, verwies auf eine potentielle Funktion von hXirp als Adapterprotein in Muskelzellen. Das hier näher untersuchte hXirp1 lokalisierte an den Zell-Matrix-Verbindungen der Muskel-Sehnen-Übergangszone im Skelettmuskel, sowie an den Zell-Zell-Verbindungen der Glanzstreifen im Herzmuskel. Während der Muskelentwicklung zeigte hXirp1 eine sehr frühe Expression, zusammen mit einer prägnanten Lokalisation an den Prämyofibrillen und deren Verankerungsstrukturen, die auf eine Funktion des Proteins in der Myofibrillogenese deuten. Ektopische Expressionen von hXirp1 in einer Vielzahl von Nichtmuskel-Kulturzellen zeigten wiederum eine Lokalisation des Proteins an den Zell-Matrix-Kontakten dieser Zellen. Am Beispiel von hXirp1 und 2 wurde stellvertretend für die Familie der Xin-Proteine gezeigt, daß es sich bei den repetitiven Motiven um neuartige, F-Aktin bindende Sequenzmotive handelte. Die Xin-Proteine können somit als muskelspezifische, aktinbindende, potentielle Adapterproteine bezeichnet werden, denen eine strukturelle und funktionelle Beteiligung an der Verankerung der Myofibrillen im adulten Muskel, wie auch während der Myofibrillogenese zukommt.
Die Hochwasserereignisse der letzten Jahre haben Mängel bei der schnellen Verfügbarkeit des klassischen Darstellungs-, Entscheidungs- und Analyseinstruments Karte offenbart. Die Erfahrungen von 1997 und 2002 verdeutlichen, dass eine homogene digitale Datengrundlage, die neben rein topographischen zusätzlich auch fachspezifische Informationen des Hochwasserschutzes enthält, für eine effektive Bekämpfung solcher Ereignisse notwendig ist. Mit den Daten des ,Amtlichen Topographisch-Kartographischen Informationssystems’ (ATKIS) liegen topographische Basisdaten in graphikfreier Form als digitales Landschaftsmodell (DLM) flächendeckend für die Bundesrepublik vor. Anhand der exemplarischen Ableitung von nutzerorientierten Kartenmodellen aus diesen graphikfreien Daten wurde deren Eignung für den besonderen Verwendungszweck im Rahmen eines Hochwasserschutz-Informationssystems überprüft. Als Anwendungsbeispiel wurde das Gebiet der Ziltendorfer Niederung, die während des Oder-Hochwassers 1997 überflutet wurde, gewählt. In Expertengesprächen wurden zunächst Inhalte identifiziert, die für einen wirksamen Hochwasserschutz Relevanz besitzen; diese Inhalte wurden anschließend analog zum ATKIS-Systemdesign strukturiert und als Objekte eines separaten Objektbereichs im digitalen Fachmodell (DFM) erfasst. Bei der Ableitung von (Bildschirm-) Karten aus den graphikfreien Daten wurden jeweils unterschiedliche Kriterien für die Basiskarte und die Fachinhalte berücksichtigt. Dabei wurden verschiedene kartographische Regeln und Gesetze mit dem Ziel der prägnanten Visualisierung und damit der eindeutigen Lesbarkeit der Karten angewendet. Beispielhaft sei hier die Schaffung einer visuellen Hierarchie zwischen Basiskarte und Fachinhalten genannt. Die besonderen Nutzungsbedingungen von Karten im Einsatzfall erfordern u.a., dass die Karten auch von Personen, die nur über geringe oder keine Erfahrung im Umgang mit Karten verfügen, schnell und einfach zu lesen sind, um so eine sichere Informationsvermittlung zu gewährleisten. Voraussetzung dafür ist einerseits die Beschränkung auf die Darstellung der wesentlichen Inhalte, andererseits die Verwendung leicht lesbarer Kartenzeichen. Aus diesem Grund wurden einheitliche Kartenzeichen zur Darstellung der Fachinhalte entwickelt, die entweder aus allgemein bekannten Symbolen, aus den im Katastrophenschutz üblicherweise verwendeten sog. taktischen Zeichen oder aus Fachzeichen des Hochwasserschutzes abgeleitet wurden. Die entwickelten Kartenmodelle wurden abschließend in qualitativen Experteninterviews in Bezug auf ihre Qualität und Verwendbarkeit im Hochwasserschutz geprüft. Die Auswertung der Interviews ergab eine insgesamt positive Beurteilung der Karten für den Einsatz in Hochwasserschutz-Informationssystemen. Damit leistet die vorliegende Arbeit einen Beitrag zur Entwicklung von (Bildschirm-) Karten zur Unterstützung bei der Entscheidungsfindung im Katastrophenmanagement.
Stellar magnetic fields, as a crucial component of star formation and evolution, evade direct observation at least with current and near future instruments. However investigating whether magnetic fields are generated by a dynamo process or represent relics from the formation process, or whether they show a behavior similar to the sun or something very different, it is essential to investigate their structure and temporal evolution. Fortunately nature provides us with the possibility to indirectly observe surface topologies on distant stars by means of Doppler shift and polarization of light, though not without its challenges. Based on the mentioned effects, the so called Zeeman-Doppler Imaging technique is a powerful method to retrieve magnetic fields from rapid rotating stars based on measurements of spectropolarimetric observations in terms of Stokes profiles. In recent years, a large number of stellar magnetic field distributions could be reconstructed by Zeeman-Doppler Imaging (ZDI). However, the implementation of this method often relies on many approximations because, as an inversion method, it entails enormous computational requirements. The aim of this thesis is to develop methods for a ZDI, designed to invert time-resolved spectropolarimetric data of active late type stars, and to account for the expected complex and small scale magnetic fields on these stars. In order to reliably reconstruct the detailed field orientation and strength, the inversion method is employed to be able to use of all four Stokes components. Furthermore it is based on fully polarized radiative transfer calculations to account for the intricate interplay between temperature and magnetic field. Finally, the application of a newly developed ZDI code to Stokes I and V observations of II Pegasi (short: II Peg) was supposed to deliver the first magnetic surface maps for this highly active star. To accomplish the high computational burden of a radiative transfer based ZDI, we developed a novel approximation method to speed up the inversion process. It is based on Principal Component Analysis and Artificial Neural Networks. The latter approximate the functional mapping between atmospheric parameters and the corresponding local Stokes profiles. Inverse problems, as we are dealing with, are potentially ill-posed and require a regularization method. We propose a new regularization scheme, which implements a local entropy function that accounts for the peculiarities of the reconstruction of localized magnetic fields. To deal with the relatively large noise that is always present in polarimetric data, we developed a multi-line denoising technique based on Principal Component Analysis. In contrast to other multi-line techniques that extract from a large number of spectral lines a sort of mean profile, this method allows to extract individual spectral lines and thus allows for an inversion on the basis of specific lines. All these methods are incorporated in our newly developed ZDI code iMap, which is based on a conjugated gradient method. An in depth validation of our new synthesis method demonstrates the reliability and accuracy of this approach as well as a gain in computation time by almost three orders of magnitude relative to the conventional radiative transfer calculations. We investigated the influence of the different Stokes components (IV / IVQU) on the ability to reconstruct a known synthetic field configuration. In doing so we validate the capability of our inversion code, and we also assess limitations of magnetic field inversions in general. In a first application to II Peg, a K2 IV subgiant, we derived temperature and magnetic field surface distributions from spectropolarimetric data obtained in 2004 and 2007. It gives for the first time simultaneously the temporal evolution of the surface temperature and magnetic field distribution on II Peg.
The exponential expanding of the numbers of web sites and Internet users makes WWW the most important global information resource. From information publishing and electronic commerce to entertainment and social networking, the Web allows an inexpensive and efficient access to the services provided by individuals and institutions. The basic units for distributing these services are the web sites scattered throughout the world. However, the extreme fragility of web services and content, the high competence between similar services supplied by different sites, and the wide geographic distributions of the web users drive the urgent requirement from the web managers to track and understand the usage interest of their web customers. This thesis, "X-tracking the Usage Interest on Web Sites", aims to fulfill this requirement. "X" stands two meanings: one is that the usage interest differs from various web sites, and the other is that usage interest is depicted from multi aspects: internal and external, structural and conceptual, objective and subjective. "Tracking" shows that our concentration is on locating and measuring the differences and changes among usage patterns. This thesis presents the methodologies on discovering usage interest on three kinds of web sites: the public information portal site, e-learning site that provides kinds of streaming lectures and social site that supplies the public discussions on IT issues. On different sites, we concentrate on different issues related with mining usage interest. The educational information portal sites were the first implementation scenarios on discovering usage patterns and optimizing the organization of web services. In such cases, the usage patterns are modeled as frequent page sets, navigation paths, navigation structures or graphs. However, a necessary requirement is to rebuild the individual behaviors from usage history. We give a systematic study on how to rebuild individual behaviors. Besides, this thesis shows a new strategy on building content clusters based on pair browsing retrieved from usage logs. The difference between such clusters and the original web structure displays the distance between the destinations from usage side and the expectations from design side. Moreover, we study the problem on tracking the changes of usage patterns in their life cycles. The changes are described from internal side integrating conceptual and structure features, and from external side for the physical features; and described from local side measuring the difference between two time spans, and global side showing the change tendency along the life cycle. A platform, Web-Cares, is developed to discover the usage interest, to measure the difference between usage interest and site expectation and to track the changes of usage patterns. E-learning site provides the teaching materials such as slides, recorded lecture videos and exercise sheets. We focus on discovering the learning interest on streaming lectures, such as real medias, mp4 and flash clips. Compared to the information portal site, the usage on streaming lectures encapsulates the variables such as viewing time and actions during learning processes. The learning interest is discovered in the form of answering 6 questions, which covers finding the relations between pieces of lectures and the preference among different forms of lectures. We prefer on detecting the changes of learning interest on the same course from different semesters. The differences on the content and structure between two courses leverage the changes on the learning interest. We give an algorithm on measuring the difference on learning interest integrated with similarity comparison between courses. A search engine, TASK-Moniminer, is created to help the teacher query the learning interest on their streaming lectures on tele-TASK site. Social site acts as an online community attracting web users to discuss the common topics and share their interesting information. Compared to the public information portal site and e-learning web site, the rich interactions among users and web content bring the wider range of content quality, on the other hand, provide more possibilities to express and model usage interest. We propose a framework on finding and recommending high reputation articles in a social site. We observed that the reputation is classified into global and local categories; the quality of the articles having high reputation is related with the content features. Based on these observations, our framework is implemented firstly by finding the articles having global or local reputation, and secondly clustering articles based on their content relations, and then the articles are selected and recommended from each cluster based on their reputation ranks.
X-rays are integral to furthering our knowledge of exoplanetary systems. In this work we discuss the use of X-ray observations to understand star-planet interac- tions, mass-loss rates of an exoplanet’s atmosphere and the study of an exoplanet’s atmospheric components using future X-ray spectroscopy.
The low-mass star GJ 1151 was reported to display variable low-frequency radio emission, which is an indication of coronal star-planet interactions with an unseen exoplanet. In chapter 5 we report the first X-ray detection of GJ 1151’s corona based on XMM-Newton data. Averaged over the observation, we detect the star with a low coronal temperature of 1.6 MK and an X-ray luminosity of LX = 5.5 × 1026 erg/s. This is compatible with the coronal assumptions for a sub-Alfvénic star- planet interaction origin of the observed radio signals from this star.
In chapter 6, we aim to characterise the high-energy environment of known ex- oplanets and estimate their mass-loss rates. This work is based on the soft X-ray instrument on board the Spectrum Roentgen Gamma (SRG) mission, eROSITA, along with archival data from ROSAT, XMM-Newton, and Chandra. We use these four X-ray source catalogues to derive X-ray luminosities of exoplanet host stars in the 0.2-2 keV energy band. A catalogue of the mass-loss rates of 287 exoplan- ets is presented, with 96 of these planets characterised for the first time using new eROSITA detections. Of these first time detections, 14 are of transiting exoplanets that undergo irradiation from their host stars that is of a level known to cause ob- servable evaporation signals in other systems, making them suitable for follow-up observations.
In the next generation of space observatories, X-ray transmission spectroscopy of an exoplanet’s atmosphere will be possible, allowing for a detailed look into the atmospheric composition of these planets. In chapter 7, we model sample spectra using a toy model of an exoplanetary atmosphere to predict what exoplanet transit observations with future X-ray missions such as Athena will look like. We then estimate the observable X-ray transmission spectrum for a typical Hot Jupiter-type exoplanet, giving us insights into the advances in X-ray observations of exoplanets in the decades to come.
Giacconi et al. (1962) discovered a diffuse cosmic X-ray background with rocket experiments when they searched for lunar X-ray emission. Later satellite missions found a spectral peak in the cosmic X-ray background at ~30 keV. Imaging X-ray satellites such as ROSAT (1990-1999) were able to resolve up to 80% of the background below 2 keV into single point sources, mainly active galaxies. The cosmic X-ray background is the integration of all accreting super-massive (several million solar masses) black holes in the centre of active galaxies over cosmic time. Synthesis models need further populations of X-ray absorbed active galaxy nuclei (AGN) in order to explain the cosmic X-ray background peak at ~30 keV. Current X-ray missions such as XMM-Newton and Chandra offer the possibility of studying these additional populations. This Ph.D. thesis studies the populations that dominate the X-ray sky. For this purpose the 120 ksec XMM-Newton Marano field survey, named for an earlier optical quasar survey in the southern hemisphere, is analysed. Based on the optical follow-up observations the X-ray sources are spectroscopically classified. Optical and X-ray properties of the different X-ray source populations are studied and differences are derived. The amount of absorption in the X-ray spectra of type II AGN, which are considered as a main contributor to the X-ray background at ~30 keV, is determined. In order to extend the sample size of the rare type II AGN, this study also includes objects from another survey, the XMM-Newton Serendipitous Medium Sample. In addition, the dependence of the absorption in type II AGN with redshift and X-ray luminosity is analysed. We detected 328 X-ray sources in the Marano field. 140 sources were spectroscopically classified. We found 89 type I AGN, 36 type II AGN, 6 galaxies, and 9 stars. AGN, galaxies, and stars are clearly distinguishable by their optical and X-ray properties. Type I and II AGN do not separate clearly. They have a significant overlap in all studied properties. In a few cases the X-ray properties are in contradiction to the observed optical properties for type I and type II AGN. For example we find type II AGN that show evidence for optical absorption but are not absorbed in X-rays. Based on the additional use of near infra-red imaging (K-band), we were able to identify several of the rare type II AGN. The X-ray spectra of type II AGN from the XMM-Newton Marano field survey and the XMM-Newton Serendipitous Medium Sample were analysed. Since most of the sources have only ~40 X-ray counts in the XMM-Newton PN-detector, I carefully studied the fit results of simulated X-ray spectra as a function of fit statistic and binning method. The objects revealed only moderate absorption. In particular, I do not find any Compton-thick sources (absorbed by column densities of NH > 1.5 x 10^24 cm^−2). This gives evidence that type II AGN are not the main contributor of the X-ray background around 30 keV. Although bias effects may occur, type II AGN show no noticeable trend of the amount of absorption with redshift or X-ray luminosity.
Writing travel, writing life
(2022)
The book compares the texts of three Swiss authors: Ella Maillart, Annemarie Schwarzenbach and Nicolas Bouvier. The focus is on their trip from Genève to Kabul that Ella Maillart and Annemarie Schwarzenbach made together in 1939/1940 and Nicolas Bouvier 1953/1954 with the artist Thierry Vernet. The comparison shows the strong connection between the journey and life and between ars vivendi and travel literature.
This book also gives an overview of and organises the numerous terms, genres, and categories that already exist to describe various travel texts and proposes the new term travelling narration. The travelling narration looks at the text from a narratological perspective that distinguishes the author, narrator, and protagonist within the narration.
In the examination, ten motifs could be found to characterise the travelling narration: Culture, Crossing Borders, Freedom, Time and Space, the Aesthetics of Landscapes, Writing and Reading, the Self and/as the Other, Home, Religion and Spirituality as well as the Journey. The importance of each individual motif does not only apply in the 1930s or 1950s but also transmits important findings for living together today and in the future.
In den letzten 20 Jahren sind Evaluationen Schritt für Schritt zu einem festen und gleichzeitig kontrovers diskutierten Bestandteil politischer Förderung geworden. Auf der Basis langjähriger Beobachtungen der Evaluationspraxis des Förderprogramms „Soziale Stadt“ zeigt dieses Buch zunächst, dass Evaluationstätigkeiten in Ministerien, Kommunalverwaltungen und Planungsbüros mit ganz unterschiedlichen Erwartungen, Herausforderungen, Widersprüchen und Irritationen verknüpft werden. Evaluationen werden dabei sowohl als Hoffnungsträger, als auch als Schreckgespenst gesehen. Der Autor nimmt diese Beobachtungen zum Anlass, den Umgang mit Evaluationen in politischen Organisationen kritisch zu hinterfragen und systematisch zu erklären. Reduziert auf die Frage „Wozu Evaluation?“ wird auf der Basis eines systemtheoretischen Zugangs erklärt, welche unterschiedlichen Funktionen Evaluationen in Organisationen erfüllen können. Vertiefend wird dabei auf organisationales Lernen, auf politische Steuerungslogik und auf die Notwendigkeit von Symbolisierungen eingegangen.
World market governance
(2014)
Democratic capitalism or liberal democracy, as the successful marriage of convenience between market liberalism and democracy sometimes is called, is in trouble. The market economy system has become global and there is a growing mismatch with the territoriality of the nation-states. The functional global networks and inter-governmental order can no longer keep pace with the rapid development of the global market economy and regulatory capture is all too common. Concepts like de-globalization, self-regulation, and global government are floated in the debate. The alternatives are analysed and found to be improper, inadequate or plainly impossible. The proposed route is instead to accept that the global market economy has developed into an independent fundamental societal system that needs its own governance. The suggestion is World Market Governance based on the Rule of Law in order to shape the fitness environment for the global market economy and strengthen the nation-states so that they can regain the sovereignty to decide upon the social and cultural conditions in each country. Elements in the proposed Rule of Law are international legislation decided by an Assembly supported by a Council, and an independent Judiciary. Existing international organisations would function as executors. The need for broad sustained demand for regulations in the common interest is identified.
Workplace-related anxieties and workplace phobia : a concept of domain-specific mental disorders
(2008)
Background: Anxiety in the workplace is a special problem as workplaces are especially prone to provoke anxiety: There are social hierarchies, rivalries between colleagues, sanctioning through superiors, danger of accidents, failure, and worries of job security. Workplace phobia is a phobic anxiety reaction with symptoms of panic occurring when thinking of or approaching the workplace, and with clear tendency of avoidance. Objectives: What characterizes workplace-related anxieties and workplace phobia as domain-specific mental disorders in contrast to conventional anxiety disorders? Method: 230 patients from an inpatient psychosomatic rehabilitation center were interviewed with the (semi-)structured Mini-Work-Anxiety-Interview and the Mini International Neuropsychiatric Interview, concerning workplace-related anxieties and conventional mental disorders. Additionally, the patients filled in the self-rating questionnaires Job-Anxiety-Scale (JAS) and the Symptom Checklist (SCL-90-R)measuring job-related and general psychosomatic symptom load. Results: Workplace-related anxieties occurred together with conventional anxiety disorders in 35% of the patients, but also alone in others (23%). Workplace phobia could be found in 17% of the interviewed, any diagnosis of workplace-related anxiety was stated in 58%. Workplace phobic patients had significantly higher scores in job-anxiety than patients without workplace phobia. Patients with workplace phobia were significantly longer on sick leave in the past 12 months (23,5 weeks) than patients without workplace phobia (13,4 weeks). Different qualities of workplace-related anxieties lead with different frequencies to work participation disorders. Conclusion: Workplace phobia cannot be described by only assessing the general level of psychosomatic symptom load and conventional mental disorders. Workplace-related anxieties and workplace phobia have an own clinical value which is mainly defined by specific workplace-related symptom load and work-participation disorders. They require special therapeutic attention and treatment instead of a “sick leave” certification by the general health physician. Workplace phobia should be named with a proper diagnosis according to ICD-10 chapter V, F 40.8: “workplace phobia”.
This dissertation investigates the working memory mechanism subserving human sentence processing and its relative contribution to processing difficulty as compared to syntactic prediction. Within the last decades, evidence for a content-addressable memory system underlying human cognition in general has accumulated (e.g., Anderson et al., 2004). In sentence processing research, it has been proposed that this general content-addressable architecture is also used for language processing (e.g., McElree, 2000).
Although there is a growing body of evidence from various kinds of linguistic dependencies that is consistent with a general content-addressable memory subserving sentence processing (e.g., McElree et al., 2003; VanDyke2006), the case of reflexive-antecedent dependencies has challenged this view. It has been proposed that in the processing of reflexive-antecedent dependencies, a syntactic-structure based memory access is used rather than cue-based retrieval within a content-addressable framework (e.g., Sturt, 2003).
Two eye-tracking experiments on Chinese reflexives were designed to tease apart accounts assuming a syntactic-structure based memory access mechanism from cue-based retrieval (implemented in ACT-R as proposed by Lewis and Vasishth (2005).
In both experiments, interference effects were observed from noun phrases which syntactically do not qualify as the reflexive's antecedent but match the animacy requirement the reflexive imposes on its antecedent. These results are interpreted as evidence against a purely syntactic-structure based memory access. However, the exact pattern of effects observed in the data is only partially compatible with the Lewis and Vasishth cue-based parsing model.
Therefore, an extension of the Lewis and Vasishth model is proposed. Two principles are added to the original model, namely 'cue confusion' and 'distractor prominence'.
Although interference effects are generally interpreted in favor of a content-addressable memory architecture, an alternative explanation for interference effects in reflexive processing has been proposed which, crucially, might reconcile interference effects with a structure-based account.
It has been argued that interference effects do not necessarily reflect cue-based retrieval interference in a content-addressable memory but might equally well be accounted for by interference effects which have already occurred at the moment of encoding the antecedent in memory (Dillon, 2011).
Three experiments (eye-tracking and self-paced reading) on German reflexives and Swedish possessives were designed to tease apart cue-based retrieval interference from encoding interference. The results of all three experiments suggest that there is no evidence that encoding interference affects the retrieval of a reflexive's antecedent.
Taken together, these findings suggest that the processing of reflexives can be explained with the same cue-based retrieval mechanism that has been invoked to explain syntactic dependency resolution in a range of other structures. This supports the view that the language processing system is located within a general cognitive architecture, with a general-purpose content-addressable working memory system operating on linguistic expressions.
Finally, two experiments (self-paced reading and eye-tracking) using Chinese relative clauses were conducted to determine the relative contribution to sentence processing difficulty of working-memory processes as compared to syntactic prediction during incremental parsing.
Chinese has the cross-linguistically rare property of being a language with subject-verb-object word order and pre-nominal relative clauses. This property leads to opposing predictions of expectation-based
accounts and memory-based accounts with respect to the relative processing difficulty of subject vs. object relatives.
Previous studies showed contradictory results, which has been attributed to different kinds local ambiguities confounding the materials (Lin and Bever, 2011). The two experiments presented are the first to compare Chinese relatives clauses in syntactically unambiguous contexts.
The results of both experiments were consistent with the predictions of the expectation-based account of sentence processing but not with the memory-based account. From these findings, I conclude that any theory of human sentence processing needs to take into account the power of predictive processes unfolding in the human mind.
There is evidence that infants start extracting words from fluent speech around 7.5 months of age (e.g., Jusczyk & Aslin, 1995) and that they use at least two mechanisms to segment words forms from fluent speech: prosodic information (e.g., Jusczyk, Cutler & Redanz, 1993) and statistical information (e.g., Saffran, Aslin & Newport, 1996). However, how these two mechanisms interact and whether they change during development is still not fully understood.
The main aim of the present work is to understand in what way different cues to word segmentation are exploited by infants when learning the language in their environment, as well as to explore whether this ability is related to later language skills. In Chapter 3 we pursued to determine the reliability of the method used in most of the experiments in the present thesis (the Headturn Preference Procedure), as well as to examine correlations and individual differences between infants’ performance and later language outcomes. In Chapter 4 we investigated how German-speaking adults weigh statistical and prosodic information for word segmentation. We familiarized adults with an auditory string in which statistical and prosodic information indicated different word boundaries and obtained both behavioral and pupillometry responses. Then, we conducted further experiments to understand in what way different cues to word segmentation are exploited by 9-month-old German-learning infants (Chapter 5) and by 6-month-old German-learning infants (Chapter 6). In addition, we conducted follow-up questionnaires with the infants and obtained language outcomes at later stages of development.
Our findings from this thesis revealed that (1) German-speaking adults show a strong weight of prosodic cues, at least for the materials used in this study and that (2) German-learning infants weight these two kind of cues differently depending on age and/or language experience. We observed that, unlike English-learning infants, 6-month-old infants relied more strongly on prosodic cues. Nine-month-olds do not show any preference for either of the cues in the word segmentation task. From the present results it remains unclear whether the ability to use prosodic cues to word segmentation relates to later language vocabulary. We speculate that prosody provides infants with their first window into the specific acoustic regularities in the signal, which enables them to master the specific stress pattern of German rapidly. Our findings are a step forwards in the understanding of an early impact of the native prosody compared to statistical learning in early word segmentation.
This thesis explores word order variability in verb-final languages. Verb-final languages have a reputation for a high amount of word order variability. However, that reputation amounts to an urban myth due to a lack of systematic investigation. This thesis provides such a systematic investigation by presenting original data from several verb-final languages with a focus on four Uralic ones: Estonian, Udmurt, Meadow Mari, and South Sámi. As with every urban myth, there is a kernel of truth in that many unrelated verb-final languages share a particular kind of word order variability, A-scrambling, in which the fronted elements do not receive a special information-structural role, such as topic or contrastive focus. That word order variability goes hand in hand with placing focussed phrases further to the right in the position directly in front of the verb. Variations on this pattern are exemplified by Uyghur, Standard Dargwa, Eastern Armenian, and three of the Uralic languages, Estonian, Udmurt, and Meadow Mari. So far for the kernel of truth, but the fourth Uralic language, South Sámi, is comparably rigid and does not feature this particular kind of word order variability. Further such comparably rigid, non-scrambling verb-final languages are Dutch, Afrikaans, Amharic, and Korean. In contrast to scrambling languages, non-scrambling languages feature obligatory subject movement, causing word order rigidity next to other typical EPP effects.
The EPP is a defining feature of South Sámi clause structure in general. South Sámi exhibits a one-of-a-kind alternation between SOV and SAuxOV order that is captured by the assumption of the EPP and obligatory movement of auxiliaries but not lexical verbs. Other languages that allow for SAuxOV order either lack an alternation because the auxiliary is obligatorily present (Macro-Sudan SAuxOVX languages), or feature an alternation between SVO and SAuxOV (Kru languages; V2 with underlying OV as a fringe case). In the SVO–SAuxOV languages, both auxiliaries and lexical verbs move. Hence, South Sámi shows that the textbook difference between the VO languages English and French, whether verb movement is restricted to auxiliaries, also extends to OV languages. SAuxOV languages are an outlier among OV languages in general but are united by the presence of the EPP.
Word order variability is not restricted to the preverbal field in verb-final languages, as most of them feature postverbal elements (PVE). PVE challenge the notion of verb-finality in a language. Strictly verb-final languages without any clause-internal PVE are rare. This thesis charts the first structural and descriptive typology of PVE. Verb-final languages vary in the categories they allow as PVE. Allowing for non-oblique PVE is a pivotal threshold: when non-oblique PVE are allowed, PVE can be used for information-structural effects. Many areally and genetically unrelated languages only allow for given PVE but differ in whether the PVE are contrastive. In those languages, verb-finality is not at stake since verb-medial orders are marked. In contrast, the Uralic languages Estonian and Udmurt allow for any PVE, including information focus. Verb-medial orders can be used in the same contexts as verb-final orders without semantic and pragmatic differences. As such, verb placement is subject to actual free variation. The underlying verb-finality of Estonian and Udmurt can only be inferred from a range of diagnostics indicating optional verb movement in both languages. In general, it is not possible to account for PVE with a uniform analysis: rightwards merge, leftward verb movement, and rightwards phrasal movement are required to capture the cross- and intralinguistic variation.
Knowing that a language is verb-final does not allow one to draw conclusions about word order variability in that language. There are patterns of homogeneity, such as the word order variability driven by directly preverbal focus and the givenness of postverbal elements, but those are not brought about by verb-finality alone. Preverbal word order variability is restricted by the more abstract property of obligatory subject movement, whereas the determinant of postverbal word order variability has to be determined in the future.
The present work deals with the variation in the linearisation of German infinitival complements from a diachronic perspective. Based on the observation that in present-day German the position of infinitival complements is restricted by properties of the matrix verb (Haider, 2010, Wurmbrand, 2001), whereas this appears much more liberal in older stages of German (Demske, 2008, Maché and Abraham, 2011, Demske, 2015), this dissertation investigates the emergence of those restrictions and the factors that have led to a reduced, yet still existing variability. The study contrasts infinitival complements of two types of matrix verbs, namely raising and control verbs. In present-day German, these show different syntactic behaviour and opposite preferences as far as the position of the infinitive is concerned: while infinitival complements of raising verbs build a single clausal domain with the with the matrix verb and occur obligatorily intraposed, infinitive complements of control verbs can form clausal constituents and occur predominantly extraposed. This correlation is not attested in older stages of German, at least not until Early New High German.
Drawing on diachronic corpus data, the present work provides a description of the changes in the linearisation of infinitival complements from Early New High German to present-day German which aims at finding out when the correlation between infinitive type and word order emerged and further examines their possible causes. The study shows that word order change in German infinitival complements is not a case of syntactic change in the narrow sense, but that the diachronic variation results from the interaction of different language-internal and language-external factors and that it reflects, on the one hand, the influence of language modality on the emerging standard language and, on the other hand, a process of specialisation.
Entsprechend der Zielstellung wurden zunächst verschiedene Varianten der Kompostierung von Holzsubstanz getestet, um eine optimale Technologie, die auch für Entwicklungsländer realisierbar ist, herauszufinden. Hierzu sind in Pflanztöpfe Holzspäne (Woodchips) von zwei verschieden Holzarten (Laub- und Nadelholz) gefüllt und mit verschiedenen natürlichen Stickstoffquellen gemischt worden. Diese Ansätze wurden regelmäßig mit Kompostwasser appliziert. Nach vier Wochen sind zwei verschiedene Wurmarten (Dendrobaena veneta und Eisenia fetida) hinzugegeben worden. Die Feuchthaltung erfolgte ab diesem Zeitpunkt durch Frischwasser. Die qualitativ beste Versuchsvariante ist im nächsten Schritt mit weiteren natürlichen Stickstoffquellen, die in Entwicklungsländern zur Verfügung gestellt werden könnten, getestet worden. Von allen Kompostvarianten sind im Labor eine Vielzahl von bodenphysikalischen (z.B. Dichte, Wasserhaltekapazität) und bodenchemischen Zustandsgrößen (z.B. Elektrische Leitfähigkeit, Totalgehalte biophiler Elemente, Bodenreaktion, organische Substanzgehalte, Kationenaustauschkapazität) bestimmt worden. Die Wiederum qualitativ beste Mischung ist in einer weiteren Versuchsreihe in verschiedenen Mengenverhältnissen mit tertiärerem Abraumsand des Braunkohlebergbaus gemischt worden. In diese Versuchsmischungen wurde die Grasmischung RSM 7.2.1 eingesät und regelmäßig bewässert sowie die Wuchshöhe gemessen. Nach 42 Tagen wurden das Gras geerntet und die biometrischen Parameter, die Nährstoffgehalte (pflanzenverfügbare Fraktionen), die Bodenreaktion, die effektive bzw. potentielle Kationenaustauschkapazität sowie die Pufferkapazitäten der Mischsubstrate bestimmt. Die nächsten Versuchsvarianten sind als Feldversuche in der Niederlausitz durchgeführt worden. Für ihre Realisierung wurde als weiterer Zuschlagsstoff Arkadolith® zugemischt. Die Plotflächen sind sowohl auf Abraumsanden des Tertiärs als auch Quartärs angelegt worden. In jeweils eine Subvariante ist RSM 7.2.1, in die andere eine autochthone Grasmischung eingesät worden. Diese Experimente wurden nach 6 Monaten beendet, die Bestimmung aller Parameter erfolgte in gleicher Weise wie bei den Gewächshausversuchen. Auf Basis aller Versuchsreihen konnten die besten Kompostqualitäten und ihre optimalen Herstellungsvarianten ermittelt werden. Eine weitere Aufgabe war es zu untersuchen, wie im Vergleich zur Verbrennung von Holzmasse die CO2-Emission in die Atmosphäre durch Holzkompostierung verringert werden kann. Hierzu wurde während der verschiedenen Kompostierungsvarianten die CO2-Freisetzung gemessen. Im Vergleich dazu ist jeweils die gleiche Masse an Holzsubstanz verbrannt worden. Die Ergebnisse zeigten, dass im Vergleich zu der thermischen Verwertung von Holsubstanz die CO2-Emission bis zu 50 % verringert werden kann. Dem Boden kann darüber hinaus energiereiche organische Substanz zugeführt werden, die eine Entwicklung der Bodenorganismen ermöglicht. Ein weiteres Experiment zielte darauf ab, die Stabilität der Holzkomposte zu bestimmen. Darüber hinaus sollte untersucht werden, ob durch die Zufuhr von pyrogenem Kohlenstoff eine Vergrößerung der Stabilität zu erreichen ist. Diese Untersuchungen wurden mit Hilfe der Thermogravimetrie vorgenommen. Alle wichtigen Kompostierungsvarianten sind sowohl mit verschiedenen Zusatzmengen als auch ohne Zusatz von pyrogenem Kohlenstoff vermessen worden. Als Vergleichssubstanz diente der Oberboden eines Niedermoorgleys, der naturgemäß einen relativ hohen Anteil an organischer Substanz aufweist. Die Ergebnisse zeigten, dass im Bereich niedriger Temperaturen die Wasserbindung im Naturboden fester ist. In der Fraktion der oxidierbaren organischen Substanz, im mittleren Temperaturbereich gemessen, ist die natürliche Bodensubstanz ebenfalls stabiler, was auf eine intensivere Bindung zwischen den organischen und anorganischen Bestandteilen, also auf stabilere organisch-mineralische Komplexe, schlussfolgern lässt. Im Bereich höherer Temperaturen (T> 550° C) waren im Naturboden keine nennenswerten organischen Bestandteile mehr nachweisbar. Hingegen wiesen die Kompostvarianten einen hohen Anteil stabiler Fraktionen, vor allem aromatische Verbindungen, auf. Diese Aussagen erscheinen vor allem für die praktische Anwendung der Holzkomposte in Hinblick auf ihre Langzeitwirkung bedeutsam. Der Zusatz von pyrogenem Kohlenstoff zeigte keine zusätzliche Stabilisierungswirkung.
Wood is used for many applications because of its excellent mechanical properties, relative abundance and as it is a renewable resource. However, its wider utilization as an engineering material is limited because it swells and shrinks upon moisture changes and is susceptible to degradation by microorganisms and/or insects. Chemical modifications of wood have been shown to improve dimensional stability, water repellence and/or durability, thus increasing potential service-life of wood materials. However current treatments are limited because it is difficult to introduce and fix such modifications deep inside the tissue and cell wall. Within the scope of this thesis, novel chemical modification methods of wood cell walls were developed to improve both dimensional stability and water repellence of wood material. These methods were partly inspired by the heartwood formation in living trees, a process, that for some species results in an insertion of hydrophobic chemical substances into the cell walls of already dead wood cells, In the first part of this thesis a chemistry to modify wood cell walls was used, which was inspired by the natural process of heartwood formation. Commercially available hydrophobic flavonoid molecules were effectively inserted in the cell walls of spruce, a softwood species with low natural durability, after a tosylation treatment to obtain “artificial heartwood”. Flavonoid inserted cell walls show a reduced moisture absorption, resulting in better dimensional stability, water repellency and increased hardness. This approach was quite different compared to established modifications which mainly address hydroxyl groups of cell wall polymers with hydrophilic substances. In the second part of the work in-situ styrene polymerization inside the tosylated cell walls was studied. It is known that there is a weak adhesion between hydrophobic polymers and hydrophilic cell wall components. The hydrophobic styrene monomers were inserted into the tosylated wood cell walls for further polymerization to form polystyrene in the cell walls, which increased the dimensional stability of the bulk wood material and reduced water uptake of the cell walls considerably when compared to controls. In the third part of the work, grafting of another hydrophobic and also biodegradable polymer, poly(ɛ-caprolactone) in the wood cell walls by ring opening polymerization of ɛ-caprolactone was studied at mild temperatures. Results indicated that polycaprolactone attached into the cell walls, caused permanent swelling of the cell walls up to 5%. Dimensional stability of the bulk wood material increased 40% and water absorption reduced more than 35%. A fully biodegradable and hydrophobized wood material was obtained with this method which reduces disposal problem of the modified wood materials and has improved properties to extend the material’s service-life. Starting from a bio-inspired approach which showed great promise as an alternative to standard cell wall modifications we showed the possibility of inserting hydrophobic molecules in the cell walls and supported this fact with in-situ styrene and ɛ-caprolactone polymerization into the cell walls. It was shown in this thesis that despite the extensive knowledge and long history of using wood as a material there is still room for novel chemical modifications which could have a high impact on improving wood properties.
Since 1980 Iraq passed through various wars and conflicts including Iraq-Iran war, Saddam Hussein’s the Anfals and Halabja campaigns against the Kurds and the killing campaigns against Shiite in 1986, Saddam Hussein’s invasion of Kuwait in August 1990, the Gulf war in 1990, Iraq war in 2003 and the fall of Saddam, the conflicts and chaos in the transmission of power after the death of Saddam, and the war against ISIS . All these wars left severe impacts in most households in Iraq; on women and children in particular.
The consequences of such long wars could be observed in all sectors including economic, social, cultural and religious sectors. The social structure, norms and attitudes are intensely affected. Many women specifically divorced women found them-selves in challenging different difficulties such as social as well as economic situations. Thus the divorced women in Iraqi Kurdistan are the focus of this research.
Considering the fact that there is very few empirical researches on this topic, a constructivist grounded theory methodology (CGT) is viewed as reliable in order to come up with a comprehensive picture about the everyday life of divorced women in Iraqi Kurdistan. Data collected in Sulaimani city in Iraqi Kurdistan. The work of Kathy Charmaz was chosen to be the main methodological context of the research and the main data collection method was individual intensive narrative interviews with divorced women.
Women generally and divorced women specifically in Iraqi Kurdistan are living in a patriarchal society that passing through many changes due to the above mentioned wars among many other factors. This research is trying to study the everyday life of divorced women in such situations and the forms of social insecurity they are experiencing. The social institutions starting from the family as a very significant institution for women to the governmental and non-governmental institutions that are working to support women, and the copying strategies, are in focus in this research. The main research argument is that the family is playing ambivalent roles in divorced women’s life. For instance, on one side families are revealed to be an essential source of security to most respondents, on the other side families posed also many threats and restrictions on those women. This argument supported by what called by Suad joseph "the paradox of support and suppression" . Another important finding is that the stat institution(laws , constitutions ,Offices of combating violence against woman and family) are supporting women somehow and offering them protection from the insecurities but it is clear that the existence of the laws does not stop the violence against women in Iraqi Kurdistan, As explained by Pateman because the laws /the contract is a sexual-social contract that upholds the sex rights of males and grants them more privileges than females. The political instability, Tribal social norms also play a major role in influencing the rule of law.
It is noteworthy to refer that analyzing the interviews in this research showed that in spite that divorced women living in insecurities and facing difficulties but most of the respondents try to find a coping strategies to tackle difficult situations and to deal with the violence they face; these strategies are bargaining, sometimes compromising or resisting …etc. Different theories used to explain these coping strategies such as bargaining with patriarchy. Kandiyoti who stated that women living under certain restraints struggle to find way and strategies to enhance their situations. The research finding also revealed that the western liberal feminist view of agency is limited this is agree with Saba Mahmood and what she explained about Muslim women agency. For my respondents, who are divorced women, their agency reveals itself in different ways, in resisting or compromising with or even obeying the power of male relatives, and the normative system in the society. Agency is also explained the behavior of women contacting formal state institutions in cases of violence like the police or Offices of combating violence against woman and family.
Das Schulfach Geographie war in der DDR eines der Fächer, das sehr stark mit politischen Themen im Sinne des Marxismus-Leninismus bestückt war. Ein anderer Aspekt sind die sozialistischen Erziehungsziele, die in der Schulbildung der DDR hoch im Kurs standen. Im Fokus stand diesbezüglich die Erziehung der Kinder zu sozialistischen Persönlichkeiten. Die Arbeit versucht einen klaren Blick auf diesen Umstand zu werfen, um zu erfahren, was da von den Lehrkräften gefordert wurde und wie es in der Schule umzusetzen war.
Durch den Fall der Mauer war natürlich auch eine Umstrukturierung des Bildungssystems im Osten unausweichlich. Hier will die Arbeit Einblicke geben, wie die Geographielehrkräfte diese Transformation mitgetragen und umgesetzt haben. Welche Wesenszüge aus der Sozialisierung in der DDR haben sich bei der Gestaltung des Unterrichtes und dessen Ausrichtung auf die neuen Erziehungsziele erhalten?
Hierzu wurden Geographielehrkräfte befragt, die sowohl in der DDR als auch im geeinten Deutschland unterrichtet haben. Die Fragen bezogen sich in erster Linie auf die Art und Weise des Unterrichtens vor, während und nach der Wende und der daraus entstandenen Systemtransformation.
Die Befragungen kommen zu dem Ergebnis, dass sich der Geographieunterricht in der DDR thematisch von dem in der BRD nicht sonderlich unterschied. Von daher bedurfte es keiner umfangreichen inhaltlichen Veränderung des Geographieunterrichts. Schon zu DDR-Zeiten wurden durch die Lehrkräfte offenbar eigenmächtig ideologiefreie physisch-geographische Themen oft ausgedehnt, um die Ideologie des Faches zu reduzieren. So fiel den meisten eine Anpassung ihres Unterrichts an das westdeutsche System relativ leicht. Die humanistisch geprägte Werteerziehung des DDR-Bildungssystems wurde unter Ausklammerung des sozialistischen Aspektes ebenso fortgeführt, da es auch hier viele Parallelen zum westdeutschen System gegeben hat. Deutlich wird eine Charakterisierung des Faches als Naturwissenschaft von Seiten der ostdeutschen Lehrkräfte, obwohl das Fach an den Schulen den Gesellschaftswissenschaften zugeordnet wird und auch in der DDR eine starke wirtschaftsgeographische Ausrichtung hatte.
Von der Verantwortung sozialistische Persönlichkeiten zu erziehen, wurden die Lehrkräfte mit dem Ende der DDR entbunden und die in dieser Arbeit aufgeführten Interviewauszüge lassen keinen Zweifel daran, dass es dem Großteil der Befragten darum nicht leidtat, sie sich aber bis heute an der Werteorientierung aus DDR-Zeiten orientieren.
This dissertation uses a common grammatical phenomenon, light verb constructions (LVCs) in English and German, to investigate how syntax-semantics mapping defaults influence the relationships between language processing, representation and conceptualization. LVCs are analyzed as a phenomenon of mismatch in the argument structure. The processing implication of this mismatch are experimentally investigated, using ERPs and a dual task. Data from these experiments point to an increase in working memory. Representational questions are investigated using structural priming. Data from this study suggest that while the syntax of LVCs is not different from other structures’, the semantics and mapping are represented differently. This hypothesis is tested with a new categorization paradigm, which reveals that the conceptual structure that LVC evoke differ in interesting, and predictable, ways from non-mismatching structures’.
Wissenschaft, Technik und Medien im Werk Alfred Döblins im Kontext der europäischen Avantgarde
(2015)
Ziel dieser Studie ist es die bislang nur sporadisch untersuchten Wechselverhältnisse zwischen den Kulturbereichen Wissenschaft/Technik und Literatur am herausragenden Beispiel des Oeuvres des Schriftstellers und Arztes Alfred Döblin aufzuspüren. Hierbei scheint seine ärztlich-psychiatrische Laufbahn, die eine breite Grundlage wissenschaftlicher Diskurse anbietet, wie auch seine avantgardistische Literaturpraxis diese gegenseitige Befruchtung gefördert zu haben.
Im Hinblick auf den Forschungsgegenstand und -zweck ist ein kulturwissenschaftlicher Ansatz versucht worden. Dieser vielperspektivische Ansatz, der von der Prämisse eines Wechselspiels aller Kulturbereiche untereinander ausgeht, gestattet eine dem Gegenstand angepasste Verknüpfung von verschiedenen Arbeitsmethoden wie der philologisch-literarhistorischen mit der konstruktivistischen und der komparatistischen. Hierbei ist eine Einbeziehung wissenschafts- und technikphilosophischer Reflexion wie auch eine dementsprechend erweiterte kulturhistorische Kontextualisierung vorgenommen worden.
Die hier vorgelegte Analyse fokussiert auf wissenschaftlich-technische Bezüge sowohl in thematischer Hinsicht als auch in der Textgestaltung der schriftstellerischen Werke Döblins bis 1924. Gleichzeitig wird die diskursgeprägte, sprachliche und literarische Dimension seiner wissenschaftlichen Studien und technischer Texte - wie Krankenakte - hervorgehoben. Dieses erweiterte ‚Oeuvre‘-Konzept gestattet die Analyse der psychiatrischen, klinisch-ärztlichen und biochemischen Schriften Döblins sowie seiner Erzählwerke, seiner vielgestaltigen Publizistik und seiner intermedialen Anregungen aus den neuen audiovisuellen Medien. Dadurch wird eine diskurskritische kulturübergreifende Interdiskursivität wie auch eine ‚Hybridität‘ aller Texte aufgezeigt, die die Grundunterschiede zwischen Textsorten und Gattungsgrenzen relativiert.
Die vorliegende Arbeit befasst sich mit der wissensbasierten Modellierung von Audio-Signal-Klassifikatoren (ASK) für die Bioakustik. Sie behandelt ein interdisziplinäres Problem, das viele Facetten umfasst. Zu diesen gehören artspezifische bioakustische Fragen, mathematisch-algorithmische Details und Probleme der Repräsentation von Expertenwissen. Es wird eine universelle praktisch anwendbare Methode zur wissensbasierten Modellierung bioakustischer ASK dargestellt und evaluiert. Das Problem der Modellierung von ASK wird dabei durchgängig aus KDD-Perspektive (Knowledge Discovery in Databases) betrachtet. Der grundlegende Ansatz besteht darin, mit Hilfe von modifizierten KDD-Methoden und Data-Mining-Verfahren die Modellierung von ASK wesentlich zu erleichtern. Das etablierte KDD-Paradigma wird mit Hilfe eines detaillierten formalen Modells auf den Bereich der Modellierung von ASK übertragen. Neunzehn elementare KDD-Verfahren bilden die Grundlage eines umfassenden Systems zur wissensbasierten Modellierung von ASK. Methode und Algorithmen werden evaluiert, indem eine sehr umfangreiche Sammlung akustischer Signale des Großen Tümmlers mit ihrer Hilfe untersucht wird. Die Sammlung wurde speziell für diese Arbeit in Eilat (Israel) angefertigt. Insgesamt werden auf Grundlage dieses Audiomaterials vier empirische Einzelstudien durchgeführt: - Auf der Basis von oszillographischen und spektrographischen Darstellungen wird ein phänomenologisches Klassifikationssystem für die vielfältigen Laute des Großen Tümmlers dargestellt. - Mit Hilfe eines Korpus halbsynthetischer Audiodaten werden verschiedene grundlegende Verfahren zur Modellierung und Anwendung von ASK in Hinblick auf ihre Genauigkeit und Robustheit untersucht. - Mit einem speziell entwickelten Clustering-Verfahren werden mehrere Tausend natürliche Pfifflaute des Großen Tümmlers untersucht. Die Ergebnisse werden visualisiert und diskutiert. - Durch maschinelles mustererkennungsbasiertes akustisches Monitoring wird die Emissionsdynamik verschiedener Lauttypen im Verlaufe von vier Wochen untersucht. Etwa 2.5 Millionen Klicklaute werden im Anschluss auf ihre spektralen Charakteristika hin untersucht. Die beschriebene Methode und die dargestellten Algorithmen sind in vielfältiger Hinsicht erweiterbar, ohne dass an ihrer grundlegenden Architektur etwas geändert werden muss. Sie lassen sich leicht in dem gesamten Gebiet der Bioakustik einsetzen. Hiermit besitzen sie auch für angrenzende Disziplinen ein hohes Potential, denn exaktes Wissen über die akustischen Kommunikations- und Sonarsysteme der Tiere wird in der theoretischen Biologie, in den Kognitionswissenschaften, aber auch im praktischen Naturschutz, in Zukunft eine wichtige Rolle spielen.
Die Beschäftigung mit dem Thema Change Management erfordert die Auseinandersetzung mit einem heterogenen Feld von Ansätzen und fachlichen Perspektiven. Es besteht ein Mangel an systematischen empirischen Untersuchungen zu diesem Thema. Insbesondere fehlen Arbeiten, die mehr als eine "Schule" des Change Managements berücksichtigen. Unterschiede in den situativen Anforderungen werden zudem theoretisch und empirisch oft unzureichend berücksichtigt. Die Vermutung liegt nahe, dass das Scheitern von Veränderungsprozessen häufig durch die stereotype Anwendung generalisierender Empfehlungen gängiger Ansätze verursacht wird. Um diesen Defiziten zu begegnen, sollten in dieser Arbeit Kontingenzen von situativen Anforderungen und Change Management empirisch überprüft werden. Der Untersuchung liegt eine Konzeption zugrunde, die hinsichtlich des Projekterfolgs von der idealen Passung (Kontingenz) zwischen situativer Anforderung und Change Management ausgeht und damit einhergehende prozessbezogene Einflussfaktoren berücksichtigt. Erfolg wird im Sinne der Nachhaltigkeit als Wirkungen wirtschaftlicher, organisationsbezogener und qualifikatorischer Art definiert. In drei Teilstudien wurden Beratende und betriebliche Beteiligte jeweils projektbezogen schriftlich und mündlich zu betrieblicher Ausgangslage, Veränderungsprinzipien, Wirkungen und prozessbezogenen Einflussfaktoren befragt. Die erste Teilstudie umfasst vier Fallstudien. Hier wurden insgesamt 18 Projektbeteiligte, jeweils Beratende, betriebliche Projektleitende und –mitarbeitende, befragt. Die zweite Teilstudie umfasst die schriftliche und mündliche Befragung von 31 Beratenden verschiedener Schulen des Change Managements. In der dritten Teilstudie wurden 47 betriebliche Veränderungsverantwortliche schriftlich befragt. Die Projekte der zweiten und dritten Teilstudie liessen sich in jeweils zwei statistisch abgesicherte Erfolgsgruppen einteilen, wobei sich die Erfolgsgruppen nicht systematisch auf Merkmalen der betrieblichen Ausgangslage unterscheiden. Folgendes sind die wichtigsten Ergebnisse: Bei traditionell-bürokratischen Organisationsstrukturen geht ein langfristig-kontinuierliches, graduell-anpassendes, pragmatisch-lösungsorientiertes Vorgehen, in flexiblen Strukturen dagegen ein kurzfristiges, tiefgreifendes und integrativ-konzeptuelles Vorgehen mit Projekterfolg einher.In traditionell-hierarchischen Führungsstrukturen erweist sich ein wenig humanzentriertes und wenig selbstbeurteilendes Vorgehen mit standardisierter Vorgehensmethode, in flexiblen Führungsstrukturen ein stark humanzentriertes und ausgeprägt selbstbeurteilendes Vorgehen mit angepasster Vorgehensmethode als erfolgsversprechend.Bei grossem betrieblichem Veränderungswissen erweist sich ein selbstbeurteilendes Vorgehen, bei geringem Veränderungswissen ein wenig selbstbeurteilendes Vorgehen als erfolgsversprechend.Angesichts ökonomischer Anforderungen geht ein langfristig-kontinuierliches, schnelles und rollend geplantes Vorgehen mit einem tiefgreifenden und integrativ-konzeptuellen Ansatz, unter wenig Einbezug von Fremdbeurteilungen mit positiven Wirkungen einher.Bei technologischen Anforderungen ist ein langfristig-kontinuierliches, langsames und tiefgreifendes Vorgehen mit wenig Fremdbeurteilung erfolgsversprechend.Für soziokulturelle Anforderungen erweist sich ein langsames, selbstbeurteilendes, graduell anpassendes und pragmatisch-fokussiertes Vorgehen als erfolgreich. Angesichts politisch-rechtlicher Anforderungen geht ein linear geplantes, zielfokussiertes, fachberaterisches und wenig prozessorientiertes Vorgehen mit Erfolg einher.Bei Gesamtreorganisationen als innerorganisationale Anforderungen erweist sich ein linear geplantes, fach- und prozessberaterisches sowie tiefgreifendes Vorgehen als erfolgsversprechend.Bei innerorganisationalen Anforderungen durch Führungswechsel geht ein kurzfristig-temporäres, integrativ-konzeptuelles Vorgehen mit angepasster Vorgehensmethode mit Erfolg einher. Hinsichtlich prozessbezogener Einflussfaktoren erweisen sich situationsspezifisches Beratendenhandeln, unterstützendes Führungsverhalten, grosse Akzeptanz der/des Beratenden, umfassender Einbezug der Mitarbeitenden, aktive Beteiligung und Engagement der Mitarbeitenden, Verankerung des Projekts in der Organisation und hoher wahrgenommener Nutzen der Veränderung als wichtigste unterstützende Faktoren. Widerstände aus der Belegschaft, problematisches Führungsverhalten im Veränderungsprozess, fehlende/mangelhafte neben Tagesgeschäft bereitgestellte Ressourcen, behindernde organisationale (nicht projektbezogene) Entwicklungen, Angst/Verunsicherung der Belegschaft sind die wichtigsten hemmenden Faktoren.
In der vorliegenden Arbeit habe ich wichtige Teilmechanismen der Erregungs-Sekretionskopplung in der Speicheldrüse der Schabe Periplaneta americana (L.) untersucht. Die Speicheldrüse ist von dopaminergen und serotonergen Fasern innerviert (Baumann et al., 2002). Beide Transmitter stimulieren eine unterschiedliche Reaktion der Drüse: Dopamin (DA) stimuliert die P-Zellen der Acini und die Ausführgangzellen, während Serotonin (5-HT) die P- und C-Zellen der Acini stimuliert, nicht jedoch die Ausführgangzellen. Der Endspeichel ist nach einer DA-Stimulierung proteinfrei. Dagegen enthält er nach einer 5-HT-Stimulierung Proteine, die von den C-Zellen sezerniert werden (Just & Walz, 1996). Im ersten Teil meiner Arbeit habe ich mittels Kapillarelektrophoretischer Analyse (CE-Analyse) die Elektrolytkonzentrationen im Endspeichel untersucht sowie die Raten der Flüssigkeitssekretion gemessen. Damit wollte ich klären, welche Transporter an der Sekretion des Primärspeichels und an dessen Modifikation beteiligt sind. Ausserdem wollte ich die Rolle der transportaktiven Epithelzellen der Ausführgänge für die Modifikation des Primärspeichels untersuchen. Dafür habe ich einen Vergleich der Elektrolytkonzentrationen im DA- und 5-HT-stimulierten Endspeichel durchgeführt. Der Elektrolytgehalt des DA- und 5-HT-stimulierten Endspeichels unterscheidet sich nicht signifikant voneinander. Er ist nach beiden Stimulierungen hypoosmotisch zum verwendeten Ringer. Die Ausführgangzellen werden durch DA stimuliert und modifizieren den Primärspeichel durch eine netto-Ionenreabsorption. Meine Versuche zeigen jedoch, dass auch die während einer 5-HT-Stimulierung der Drüse unstimulierten Ausführgangzellen den Primärspeichel modifizieren. In einer nachfolgenden Versuchsreihe habe ich den Einfluss von Ouabain, einem Hemmstoff der Na+-K+-ATPase, und Bumetanid, einem Hemmstoff des NKCC, auf die Raten der Flüssigkeitssekretion sowie den Elektrolytgehalt des Endspeichels untersucht. Ich habe gefunden, dass die Aktivität der Na+-K+-ATPase wichtig für die Modifikation des DA-stimulierten Primärspeichels ist. Im Gegensatz dazu ist sie für die Modifikation des 5-HT-stimulierten Primärspeichels nicht von Bedeutung. Bezüglich der Flüssigkeitssekretion habe ich keinen Einfluss der Na+-K+-ATPase-Aktivität auf die DA-stimulierten Sekretionsraten gefunden, dagegen ist die 5-HT-stimulierte Sekretionsrate in Anwesenheit von Ouabain gesteigert. Die Aktivität des NKCC ist für beide sekretorische Prozesse, die Ionen- und die Flüssigkeitssekretion, wichtig. Eine Hemmung des NKCC bewirkt eine signifikante Verringerung der Raten der Flüssigkeitssekretion nach DA- und 5-HT-Stimulierung sowie in beiden Fällen einen signifikanten Abfall der Ionenkonzentrationen im Endspeichel. Im zweiten Teil meiner Arbeit habe ich versucht, Änderungen der intrazellulären Ionenkonzentrationen in den Acinuszellen während einer DA- oder 5-HT-Stimulierung zu messen. Diese Experimente sollten mit der Methode des "ratiometric imaging" durchgeführt werden. Messungen mit dem Ca2+-sensitiven Fluoreszenzfarbstoff Fura-2 zeigten keinen globalen Anstieg in der intrazellulären Ca2+-Konzentration der P-Zellen. Aufgrund von Problemen mit einer schlechten Beladung der Zellen, einer starken und sich während der Stimulierung ändernden Autofluoreszenz der Zellen sowie Änderungen im Zellvolumen wurden keine Messungen mit Na+- und K+-sensitiven Fluoreszenzfarbstoffen durchgeführt. Im dritten Teil dieser Arbeit habe ich die intrazellulären Signalwege untersucht, die zwischen einer 5-HT-Stimulierung der Drüse und der Proteinsekretion vermitteln. Dazu wurde der Proteingehalt im Endspeichel biochemisch mittels eines modifizierten Bradford Assay gemessen. Eine erstellte Dosis-Wirkungskurve zeigt, dass die Rate der Proteinsekretion von der zur Stimulierung verwendeten 5-HT-Konzentration abhängt. In einer Serie von Experimenten habe ich die intrazellulären Konzentrationen von Ca2+, cAMP und / oder cGMP erhöht und anschließend den Proteingehalt im Endspeichel gemessen. Ein Anstieg der intrazellulären Ca2+-Konzentration aktiviert nur eine geringe Rate der Proteinsekretion. Dagegen kann die Steigerung der intrazellulären cAMP-Konzentration eine stärkere Proteinsekretion aktivieren, die sich nicht signifikant von der nach 5-HT-Stimulierung unterscheidet. Die cAMP-stimulierte Proteinsekretion kann durch gleichzeitige Erhöhung der intrazellulären Ca2+-Konzentration weiter gesteigert werden. Dagegen aktivierte eine Erhöhung der intrazellulären cGMP-Konzentration die Proteinsekretion nicht. Aufgrund dieser Ergebnisse postuliere ich die Existenz eines die Adenylatcyclase aktivierenden 5-HT-Rezeptors in der Basolateralmembran der C-Zellen.
Die gesundheitsfördernden Eigenschaften von grünem Tee sind weitgehend akzeptiert. Den Teecatechinen, insbesondere dem Epigallocatechin-3-gallat (EGCG), werden zahlreiche positive Effekte zugesprochen (z. B. antioxidativ, antikanzerogen, antiinflammatorisch, Blutdruck und Cholesterinspiegel senkend). Die Mechanismen, die zu einer Reduktion der in Tierversuchen beschriebenen Körper- und Fettmasse führen, sind nicht ausreichend geklärt. Ziel dieser Arbeit bestand darin, die kurz- und mittelfristigen Wirkungen einer TEAVIGO®-Applikation (mind. 94 % EGCG) am Mausmodell im Hinblick auf den Energie- und Fettstoffwechsel sowie die Expression daran beteiligter Gene in wichtigen Organen und Geweben zu untersuchen. In verschiedenen Tierversuchen wurde männlichen C57BL/6-Mäusen eine Hochfettdiät (HFD) mit und ohne Supplementation (oral, diätetisch) des entkoffeinierten Grüntee-Extraktes TEAVIGO® in unterschiedlichen Dosierungen gefüttert. Es wurden sowohl kurz- als auch mittelfristige Wirkungen des EGCG auf die Energiebilanz (u. a. indirekte Tierkalorimetrie) und Körperzusammensetzung (NMR) sowie die exogene Substratoxidation (Stabilisotopentechnik: Atemtests, Inkorporation natürlicher 13C-angereicherter Triglyceride aus Maiskeimöl in diverse Organe/Gewebe) und Gen-expression (quantitative real-time PCR) untersucht. Die Applikationsform und ihre Dauer riefen unterschiedliche Wirkungen hervor. Mäuse mit diätetischer Supplementation zeigten bereits nach kurzer Zeit eine verminderte Körperfettmasse, die bei weiterer Verabreichung auch zu einer Reduktion der Körpermasse führte. Beide Applikationsformen resultieren, unabhängig von der Dauer der Intervention, in einer erhöhten Energieausscheidung, während die Futter- und Energieaufnahme durch EGCG nicht beeinflusst wurden. Der Energieverlust war von einer erhöhten Fett- und Stickstoffausscheidung begleitet, deren Ursache die in der Literatur beschriebene Interaktion und Hemmung digestiver Enzyme sein könnte. Besonders unter postprandialen Bedingungen wiesen EGCG-Mäuse erniedrigte Triglycerid- und Glycogengehalte in der Leber auf, was auf eine eingeschränkte intestinale Absorption der Nährstoffe hindeutet. Transkriptanalysen ergaben im Darm eine verminderte Expression von Fettsäuretransportern, während die Expression von Glucosetransportern durch EGCG erhöht wurde. Weiterhin reduzierte EGCG, nach Umstellung von Standard- auf eine maiskeimölhaltige Hochfettdiät, die Inkorporation natürlicher 13C-angereicherter Triglyceride in diverse Organe und Gewebe – insbesondere Leber, viszerales und braunes Fettgewebe sowie Skelettmuskel. Die Analyse der 13C-Anreicherung im Atem der Mäuse und die Energieumsatzmessungen ergaben nach kurzer Applikation eine erhöhte Fettoxidation, die im weiteren Verlauf der Intervention auf eine erhöhte Kohlenhydratoxidation umgeschaltet wurde. Weiterhin war die orale Applikation von EGCG bei gleichzeitiger Fütterung einer Hochfettdiät von makroskopischen und mikroskopischen degenerativen Veränderungen der Leber begleitet. Diese Effekte wurden nach diätetischer Supplementation der Hochfettdiät mit EGCG nicht beobachtet. Zusammenfassend zeigen die Ergebnisse, dass die Körpergewichts- und Fettgewebs-abnahme durch diätetisches EGCG sich durch eine herabgesetzte Verdaulichkeit der Nahrung erklären lässt. Dies führte zu verschiedenen kurz- und mittelfristigen Veränderungen in der Fettverteilung und im Fettmetabolismus.
Einleitung
Die Implantation einer Knie- oder Hüft-Totalendoprothese (TEP) ist eine der häufigsten operativen Eingriffe. Im Anschluss an die Operation und die postoperative Rehabilitation stellt die Bewegungstherapie einen wesentlichen Bestandteil der Behandlung zur Verbesserung der Gelenkfunktion und der Lebensqualität dar. In strukturschwachen Gebieten werden entsprechende Angebote nur in unzureichender Dichte vorgehalten. Zudem zeichnet sich ein flächendeckender Fachkräftemangel im Bereich der Physiotherapie ab. Die Tele-Nachsorge bietet daher einen innovativen Ansatz für die postrehabilitative Versorgung der Patienten. Das Ziel der vorliegenden Untersuchung war die Überprüfung der Wirksamkeit einer interaktiven Tele-Nachsorgeintervention für Patienten mit Knie- oder Hüft-TEP im Vergleich zur herkömmlichen Versorgung (usual care). Dazu wurden die Funktionalität und die berufliche Wiedereingliederung untersucht.
Methode
Zwischen August 2016 und August 2017 wurden 111 Patienten (54,9 ± 6,8 Jahre, 54,3 % weiblich) zu Beginn ihrer stationären Anschlussheilbehandlung nach Implantation einer Knie- oder Hüft-TEP in diese randomisiert, kontrolliert, multizentrische Studie eingeschlossen. Nach Entlassung aus der orthopädischen Anschlussrehabilitation (Baseline) führte die Interventionsgruppe (IG) ein dreimonatiges interaktives Training über ein Telerehabilitationssystem durch. Hierfür erstellte ein betreuender Physiotherapeut einen individuellen Trainingsplan aus 38 Übungen zur Verbesserung der Kraft sowie der posturalen Kontrolle. Zur Anpassung des Trainingsplans übermittelte das System dem Physiotherapeuten Daten zur Quantität sowie zur Qualität des Trainings. Die Kontrollgruppe (KG) konnte die herkömmlichen Versorgungsangebote nutzen. Zur Beurteilung der Wirksamkeit der Intervention wurde die Differenz der Verbesserung im 6MWT zwischen der IG und der KG nach drei Monaten als primärer Endpunkt definiert. Als sekundäre Endpunkte wurden die Return-to-Work-Rate sowie die funktionelle Mobilität mittels des Stair Ascend Tests, des Five-Times-Sit-to-Stand Test und des Timed Up and Go Tests untersucht. Weiterhin wurden die gesundheitsbezogene Lebensqualität mit dem Short-Form 36 (SF-36) und die gelenkbezogenen Einschränkungen mit dem Western Ontario and McMaster Universities Osteoarthritis Index (WOMAC) evaluiert. Der primäre und die sekundären Endpunkte wurden anhand von baseline-adjustierten Kovarianzanalysen im intention-to-treat-Ansatz ausgewertet. Zusätzlich wurde die Teilnahme an Nachsorgeangeboten und die Adhärenz der Interventionsgruppe an der Tele-Nachsorge erfasst und evaluiert.
Ergebnisse
Zum Ende der Intervention wiesen beide Gruppen einen statistisch signifikanten Anstieg ihrer 6MWT Strecke auf (p < 0,001). Zu diesem Zeitpunkt legten die Teilnehmer der IG im Mittel 530,8 ± 79,7 m, die der KG 514,2 ± 71,2 m zurück. Dabei betrug die Differenz der Verbesserung der Gehstrecke in der IG 88,3 ± 57,7 m und in der KG 79,6 ± 48,7 m. Damit zeigt der primäre Endpunkt keine signifikanten Gruppenunterschiede (p = 0,951). Bezüglich der beruflichen Wiedereingliederung konnte jedoch eine signifikant höhere Rate in der IG (64,6 % versus 46,2 %; p = 0,014) festgestellt werden. Für die sekundären Endpunkte der funktionellen Mobilität, der Lebensqualität und der gelenkbezogenen Beschwerden belegen die Ergebnisse eine Gleichwertigkeit beider Gruppen zum Ende der Intervention.
Schlussfolgerung
Die telemedizinisch assistierte Bewegungstherapie für Knie- oder Hüft-TEP Patienten ist der herkömmlichen Versorgung zur Nachsorge hinsichtlich der erzielten Verbesserungen der funktionellen Mobilität, der gesundheitsbezogenen Lebensqualität und der gelenkbezogenen Beschwerden gleichwertig. In dieser Patientenpopulation ließen sich klinisch relevante Verbesserungen unabhängig von der Form der Bewegungstherapie erzielen. Im Hinblick auf die berufliche Wiedereingliederung zeigte sich eine signifikant höhere Rate in der Interventionsgruppe. Die telemedizinisch assistierte Bewegungstherapie scheint eine geeignete Versorgungsform der Nachsorge zu sein, die orts- und zeitunabhängig durchgeführt werden kann und somit den Bedürfnissen berufstätiger Patienten entgegenkommt und in den Alltag der Patienten integriert werden kann. Die Tele-Nachsorge sollte daher als optionale und komplementäre Form der postrehabilitativen Nachsorge angeboten werden. Auch im Hinblick auf den zunehmenden Fachkräftemangel im Bereich der Physiotherapie und bestehende Versorgungslücken in strukturschwachen Gebieten kann der Einsatz der Tele-Nachsorge innovative und bedarfsgerechte Lösungsansätze bieten.