Refine
Year of publication
- 2024 (66)
- 2023 (626)
- 2022 (655)
- 2021 (755)
- 2020 (883)
- 2019 (489)
- 2018 (568)
- 2017 (514)
- 2016 (509)
- 2015 (509)
- 2014 (471)
- 2013 (726)
- 2012 (640)
- 2011 (864)
- 2010 (686)
- 2009 (913)
- 2008 (871)
- 2007 (882)
- 2006 (936)
- 2005 (1070)
- 2004 (1142)
- 2003 (999)
- 2002 (901)
- 2001 (902)
- 2000 (1091)
- 1999 (1223)
- 1998 (1093)
- 1997 (1070)
- 1996 (1147)
- 1995 (992)
- 1994 (758)
- 1993 (335)
- 1992 (201)
- 1991 (143)
- 1990 (12)
- 1989 (17)
- 1988 (14)
- 1987 (11)
- 1986 (6)
- 1985 (8)
- 1984 (6)
- 1983 (23)
- 1982 (6)
- 1981 (7)
- 1980 (9)
- 1979 (15)
- 1978 (9)
- 1977 (12)
- 1976 (7)
- 1975 (3)
- 1974 (2)
- 1973 (2)
- 1972 (2)
- 1971 (2)
- 1970 (1)
- 1958 (1)
Document Type
- Article (13927)
- Monograph/Edited Volume (4204)
- Doctoral Thesis (3265)
- Review (1598)
- Postprint (927)
- Part of a Book (763)
- Part of Periodical (383)
- Other (225)
- Master's Thesis (198)
- Working Paper (83)
Language
- German (25895) (remove)
Keywords
- Deutschland (127)
- Germany (98)
- Sprachtherapie (77)
- Patholinguistik (73)
- patholinguistics (73)
- Europäische Union (58)
- Nachhaltigkeit (58)
- European Union (57)
- Außenpolitik (55)
- Polen (49)
Institute
- Historisches Institut (2203)
- Wirtschaftswissenschaften (1775)
- Sozialwissenschaften (1434)
- Institut für Romanistik (1299)
- Institut für Germanistik (1255)
- Bürgerliches Recht (1248)
- Department Erziehungswissenschaft (1241)
- MenschenRechtsZentrum (1080)
- Öffentliches Recht (1013)
- Institut für Jüdische Studien und Religionswissenschaft (944)
In der vorliegenden Untersuchung wurde ein arbeitspsychologisches Problem thematisiert, dass in Mensch-Maschine-Systemen auftritt. In Mensch-Maschine-Systemen werden Informationen in kodierter Form ausgetauscht. Diese inhaltlich verkürzte Informationsübertragung hat den Vorteil, keine lange Zustandsbeschreibung zu benötigen, so dass der Mensch auf die veränderten Zustände schnell und effizient reagieren kann. Dies wird aber nur dann ermöglicht, wenn der Mensch die kodierten Informationen (Kodes) vorher erlernten Bedeutungen zuordnen kann. Je nach Art der kodierten Informationen (visuelle, akustische oder alphanumerische Signale) wurden Gestaltungsempfehlungen für Kodealphabete entwickelt. Für Operateure resultiert die mentale Belastung durch Dekodierungsprozesse vor allem aus dem Umfang des Kodealphabetes (Anzahl von Kodezeichen), der wahrnehmungsmäßigen Gestaltung der Kodes und den Regeln über die Zuordnung von Bedeutungen zu Kodezeichen. Die Entscheidung über die Güte von Kodealphabeten geschieht in der Arbeitspsychologie in der Regel über Leistungsindikatoren. Dies sind üblicherweise die zur Dekodierung der Kodes benötigte Zeit und dabei auftretende Zuordnungsfehler. Psychophysiologische Daten werden oft nicht herangezogen. Fraglich ist allerdings, ob Zeiten und Fehler allein verlässliche Indikatoren für den kognitiven Aufwand bei Dekodierungsprozessen sind, da im hochgeübten Zustand bei gleichen Alphabetlängen, aber unterschiedlicher Kodezeichengestaltung sich häufig die mittleren Dekodierungszeiten zwischen Kodealphabeten nicht signifikant unterscheiden und Fehler überhaupt nicht auftreten. Die in der vorliegenden Arbeit postulierte Notwendigkeit der Ableitung von Biosignalen gründet sich auf die Annahme, dass mit ihrer Hilfe zusätzliche Informationen über die mentale Beanspruchung bei Dekodierungsprozessen gewonnen werden können, die mit der Erhebung von Leistungsdaten nicht erfasst werden. Denn gerade dann, wenn sich die Leistungsdaten zweier Kodealphabete nicht unterscheiden, können psychophysiologische Daten unterschiedliche Aspekte mentaler Beanspruchung erfassen, die mit Hilfe von Leistungsdaten nicht bestimmt werden können. Daher wird in Erweiterung des etablierten Untersuchungsansatzes vorgeschlagen, Biosignale als dritten Datenbereich, neben Leistungsdaten und subjektiven Daten mentaler Beanspruchung, abzuleiten, um zusätzliche Informationen über die mentale Beanspruchung bei Dekodierungsprozessen zu erhalten. Diese Annahme sollte mit Hilfe der Ableitung von Biosignalen überprüft werden. Der Begriff mentaler Beanspruchung wird in der bisherigen Literatur nur unzureichend definiert und differenziert. Daher wird zur Untersuchung dieses Konzepts, die wissenschaftliche Literatur berücksichtigend, ein erweitertes Modell mentaler Beanspruchung vorgestellt. Dabei wird die mentale Beanspruchung abgegrenzt von der emotionalen Beanspruchung. Mentale Beanspruchung wird weiterhin unterschieden in psychomotorische, perzeptive und kognitive Beanspruchung. Diese Aspekte mentaler Beanspruchung werden jeweils vom psychomotorischen, perzeptiven oder kognitiven Aufwand der zu bearbeitenden Aufgabe ausgelöst. In der vorliegenden Untersuchung wurden zwei zentrale Fragestellungen untersucht: Einerseits wurde die Analyse der anwendungsbezogenen Frage fokussiert, inwieweit psychophysiologische Indikatoren mentaler Beanspruchung über die Leistungsdaten (Dekodierungszeiten und Fehleranzahl) hinaus, zusätzliche Informationen zur Bestimmung der Güte von Kodealphabeten liefern. Andererseits wurde der Forschungsaspekt untersucht, inwieweit psychophysiologische Indikatoren mentaler Beanspruchung die zur Dekodierung notwendigen perzeptiven und kognitiven Aspekte mentaler Beanspruchung differenzieren können. Emotionale Beanspruchung war nicht Gegenstand der Analysen, weshalb in der Operationalisierung versucht wurde, sie weitgehend zu vermeiden. Psychomotorische Beanspruchung als dritter Aspekt mentaler Beanspruchung (neben perzeptiver und kognitiver Beanspruchung) wurde für beide Experimentalgruppen weitgehend konstant gehalten. In Lernexperimenten hatten zwei anhand eines Lern- und Gedächtnistests homogenisierte Stichproben jeweils die Bedeutung von 54 Kodes eines Kodealphabets zu erwerben. Dabei wurde jeder der zwei unahbhängigen Stichproben ein anderes Kodealphabet vorgelegt, wobei sich die Kodealphabete hinsichtlich Buchstabenanzahl (Kodelänge) und anzuwendender Zuordnungsregeln unterschieden. Damit differierten die Kodealphabete im perzeptiven und kognitiven Aspekt mentaler Beanspruchung. Die Kombination der Abkürzungen entsprach den in einer Feuerwehrleitzentrale verwendeten (Kurzbeschreibungen von Notfallsituationen). In der Lernphase wurden den Probanden zunächst die Kodealphabete geblockt mit ihren Bedeutungen präsentiert. Anschließend wurden die Kodes (ohne deren Bedeutung) in sechs aufeinanderfolgenden Prüfphasen randomisiert einzeln dargeboten, wobei die Probanden instruiert waren, die Bedeutung der jeweiligen Kodes in ein Mikrofon zu sprechen. Während des gesamten Experiments wurden, neben Leistungsdaten (Dekodierungszeiten und Fehleranzahl) und subjektiven Daten über die mentale Beanspruchung im Verlauf der Experimente, folgende zentralnervöse und peripherphysiologische Biosignale abgeleitet: Blutdruck, Herzrate, phasische und tonische elektrodermale Aktivität und Elektroenzephalogramm. Aus ihnen wurden zunächst 13 peripherphysiologische und 7 zentralnervöse Parameter berechnet, von denen 7 peripherphysiologische und 3 zentralnervöse Parameter die statistischen Voraussetzungen (Einschlusskriterien) soweit erfüllten, dass sie in die inferenzstatistische Datenanalyse einbezogen wurden. Leistungsdaten und subjektive Beanspruchungseinschätzungen der Versuchsdurchgänge wurden zu den psychophysiologischen Parametern in Beziehung gesetzt. Die Befunde zeigen, dass mittels der psychophysiologischen Daten zusätzliche Erkenntnisse über den kognitiven Aufwand gewonnen werden können. Als weitere Analyse wurden die Kodes post hoc in zwei neue Kodealphabete eingeteilt. Ziel dieser Analyse war es, die Unterschiede zwischen beiden Kodealphabeten zu erhöhen, um deutlichere reizbezogene psychophysiologische Unterschiede in den EEG-Daten zwischen den Kodealphabeten zu erhalten. Dazu wurde diejenigen, hinsichtlich ihrer Bedeutung, parallelen Kodes in beiden Kodealphabeten ausgewählt, die sich in der Dekodierungszeit maximal voneinander unterschieden. Eine erneute Analyse der EEG-Daten erbrachte jedoch keine Verbesserung der Ergebnisse. Drei Hauptergebnisse bezüglich der psychophysiologischen Parameter konnten festgestellt werden: Das erste Ergebnis ist für die psychophysiologische Methodik bedeutsam. Viele psychophysiologische Parameter unterschieden zwischen den Prüfphasen und zeigen damit eine hinreichende Sensitivität zur Untersuchung mentaler Beanspruchung bei Dekodierungsprozessen an. Dazu gehören die Anzahl der spontanen Hautleitwertsreaktionen, die Amplitude der Hautleitwertsreaktionen, das Hautleitwertsniveau, die Herzrate, die Herzratendifferenz und das Beta-2-Band des EEG. Diese Parameter zeigen einen ähnlichen Verlauf wie die Leistungsdaten. Dies zeigt, dass es möglich ist, die hier operationaliserte Art mentaler Beanspruchung in Form von Dekodierungsprozessen psychophysiologisch zu analysieren. Ein zweites Ergebnis betrifft die Möglichkeit, Unterschiede mentaler Beanspruchung zwischen beiden Gruppen psychophysiologisch abzubilden: Das Hautleitwertsniveau und das Theta-Frequenzband des Spontan-EEG zeigten Unterschiede zwischen beiden Stichproben von der ersten Prüfphase an. Diese Parameter indizieren unterschiedlichen kognitiven Aufwand in beiden Stichproben über alle Prüfphasen. Das wichtigste Ergebnis betrifft die Frage nach einem Informationsgewinn bei Einsatz psychophysiologischer Methoden zur Bewertung der Güte von Kodealphabeten: Einen tatsächlichen Informationsgewinn gegenüber den Leistungsdaten zeigte die Amplitude der elektrodermalen Aktivität und die Herzraten-Differenz an. Denn in den späteren Prüfphasen, wenn sich die Leistungsdaten beider Kodealphabete nicht mehr unterschieden, konnten unterschiedliche Ausprägungen dieser psychophysiologischen Parameter zwischen beiden Kodealphabeten verzeichnet werden. Damit konnten unterschiedliche Aspekte mentaler Beanspruchung in beiden Kodealphabeten in den späteren Prüfphasen erfasst werden, in denen sich die Leistungsdaten nicht mehr unterschieden. Alle drei Ergebnisse zeigen, dass es, trotz erheblichen technischen und methodischen Aufwands, sinnvoll erscheint, bei der Charakterisierung mentaler Belastungen und für die Gestaltung von Kodealphabeten auch psychophysiologische Daten heranzuziehen, da zusätzliche Informationen über den perzeptiven und kognitiven Dekodierungsaufwand gewonnen werden können.
Im Bereich der medizinischen Diagnostik spielen DNA-Chips eine immer wichtigere Rolle. Dabei werden Glas- oder Silikon-Oberflächen mit Tausenden von einzelsträngigen DNA-Fragmenten, sog. Sonden, bestückt, die mit den passenden DNA-Fragmenten in der zugefügten Patientenprobe verschmelzen. Die Auswertung solcher Messungen liefert die Diagnose für Krankheiten wie z.B. Krebs, Alzheimer oder für den Nachweis pathogener Erreger. Durch fortschreitende Miniaturisierung dieser Meßsysteme können bis zu 40.000 Genfragmente des Menschen in einer einzigen Messung analysiert werden. Neben den DNA-Fragmenten können Bio-Chips auch für andere biologische Komponenten wie Antikörper und Proteine eingesetzt werden, wobei bei letzteren neben der Bindung auch die Aktivität ein wichtiger Diagnoseparamter ist. Am Fraunhofer-Institut für medizinische Technik und am Lehrstuhl für Analytische Biochemie der Universität Potsdam wurden im Rahmen einer Doktorarbeit Methoden entwickelt, die es ermöglichen auf nukleinsäuremodifizierten Sensoroberflächen die Aktivität von Proteinen zu messen. Es wurden Nukleinsäuren auf Oberflächen optischer Sensoren verankert. Diese fungierten als Rezeptor für die Proteine sowie auch als Substrat für Restriktionsenzyme, die Nukleinsäuren schneiden und Polymerasen, die Nukleinsäuren synthetisieren und verlängern können. Seine Anwendung fand diese Messmethode in der Messung der Aktivität des Proteins Telomerase, das in 90% aller Tumore erhöhte Aktivität gegenüber gesunden Zellen aufweist. Die Vorteile dieses neuen Assays gegenüber älteren Methoden liegt im Verzicht auf radioaktiv-markierten Komponenten und einer deutlich verkürzten Analysezeit. Die Arbeit schliesst mit einem funktionsfähigen Nachweis der Telomeraseaktivität im Zellextrakt von gesunden und kranken Zellen. Der direkte Einfluß von Hemmstoffen auf die Aktivität konnte sichtbar gemacht werden, und steht daher bei der Entwicklung neuer Tumor-Diagnostika und Therapeutika zur Verfügung.
Die wachsenden Kosten für die Behandlung chronischer lumbaler Rückenschmerzen stehen zunehmend in Diskrepanz mit den begrenzten Mitteln für das Gesundheitswesen. Untersuchungen zeigen, dass aktive Trainingsprogramme, je früher sie eingesetzt werden, einen positiven Einfluss auf die Senkung von Kosten für die Gesellschaft haben. Ein rechtzeitiger Einsatz der medizinischen Kräftigungstherapie bei Rückenschmerzpatienten ist somit unter rehabilitativen Gesichtspunkten notwendig. Insbesondere das Training im Wasser gestattet gelenkschonende Übungen in frühen Phasen der Rehabilitation und lassen eine raschere Wiederherstellung erwarten. Über die körperlichen Auswirkungen therapeutischer Trainingsmaßnahmen im Wasser sind bis dato wenige Studien verfügbar, welche die Wirkung des Mediums Wasser auf konditionelle Parameter objektiv quantifizieren und bewerten. Jedoch sind bislang die Möglichkeiten für ein gezieltes Krafttraining im Wasser begrenzt. Eine gerätetechnische Entwicklung, die ein rumpfstabilisierendes Krafttraining im Warmwasser ermöglicht, lässt im Vergleich zu herkömmlichen Trainingsmöglichkeiten eine noch effizientere rehabilitative Behandlung erwarten. Es wird die Fragestellung verfolgt, inwieweit aktive Trainingsformen im Wasser die Maximalkraft und die neuromuskuläre Funktion der Rumpfmuskulatur, sowie den Schmerz von Rückenpatienten beeinflussen. Ferner soll im Rahmen der Untersuchungen die Effektivität eines neu entwickelten Wassertrainingsgerätes geprüft werden. Die Untersuchungen der Ergebnisse von 80 weiblichen Probanden (in fünf Gruppen aufgeteilt: Kontrollgruppe, Aquajogging, Aquarücken, Aquagerät und Rückengymnastik an Land) zeigen, dass durch aktive Interventionsmaßnahmen eine Verbesserung der Kraftfähigkeit und eine Reduzierung von Schmerzen erzielt werden kann. Hingegen kommt es in der Kontrollgruppe, ohne Trainingsanwendungen, zur Stagnation des chronischen Schmerzzustandes, sogar zur Verschlechterung der Kraftentwicklung der Rückenstreckmuskulatur. In allen Trainingsgruppen konnten kurzfristig und mittelfristig weniger Muskelfunktionsstörungen nachgewiesen werden. Bei Betrachtung der Kraftentwicklung der unteren Rumpfmuskulatur fällt auf, dass die höchsten Zuwächse der Bauchmuskelkraft in den Gruppen Aquarücken und Aquagerät festzustellen sind. Die Kraft der Rückenstreckermuskulatur entwickelte sich in der Gruppe Aquagerät mit einer Steigerung von 55% nach der Intervention am stärksten. Es kann die Hypothese aufgestellt werden, dass das Training im warmen Wasser unter stabilisierten Voraussetzungen eine effizientere Methode zur Stärkung der unteren Rumpfmuskulatur zu sein scheint. Bei der Entwicklung der Kraft der oberen Rücken- und Schultergürtelmuskulatur kommt es in den Gruppen Aquajogging und Aquarücken zu den größten Steigerungen. Dies könnte mit der höheren Aktivität der Arme im Übungsprogramm zusammenhängen. Positiv ist die hohe Reduzierung der Schmerzen in allen Trainingsgruppen zu bewerten. Jedoch ist bei Betrachtung der Ergebnisse festzustellen, dass für eine weitere Manifestierung der Trainingserfolge ein weiterführendes Training bedeutsam ist. Die Ergebnisse dieser Studie belegen, dass durch ein gezieltes Training im Wasser und an Land über 6 Wochen, je zweimal pro Woche, deutliche Verbesserungen in der Entwicklung von Kraft, Schmerzintensität, Funktionseinschränkung und Muskelfunktion möglich sind. Ferner werden in dieser Arbeit positive Zusammenhänge zwischen den Entwicklungen Schmerzintensität und Rückenstreckerkraft, sowie Schmerzintensität und Bauchmuskelkraft beobachtet. Zwischen den Versuchsgruppen im Wasser und der Versuchsgruppe an Land konnten nur geringe Unterschiede in den Ergebnissen nachgewiesen werden. Jedoch geben die Resultate Hinweis darauf, dass bei höheren Schmerzintensitäten die Intervention im Wasser die Therapie der Wahl zu sein scheint. Die Resultate dieser Untersuchungen machen deutlich, dass der Einsatz eines Wassertrainingsgerätes in der Therapie chronischer Rückenschmerzpatienten eine effiziente Methode zur Senkung von Schmerzen und zur Steigerung der Kraft der Rücken- und Bauchmuskulatur ist. Vorteile des Wassertraingsgerätes sind die gute Stabilisation des Beckens, trotz auftriebswirksamer Mechanismen im Wasser, die bedienerfreundliche Handhabung, der separat einstellbare Widerstand, die schnellen Therapieerfolge und die hohe Motivation der Kursteilnehmer. Diese Beobachtungen lassen eine effizientere Therapie und damit Kostenersparnisse vermuten. Nachteile sind das hohe Gewicht des Wassertraingsgerätes und die relativ hohen Anschaffungskosten. Die hohe Reduzierung der Schmerzintensität bei den Probanden, die am Wassertrainingsgerät Interventionen durchführten, lassen vermuten, dass diese Geräteanwendungen für Patienten mit sehr schmerzhaften oder subakuten Verlaufsformen besonders geeignet ist. Der schonende Charakter der Aquatherapie und der Einsatz eines neuen Wassertrainingsgerätes unterstützt in effektiver Weise die modernen Konzepte der Rehabilitation chronischer Rückenschmerzpatienten.
Die Eifel ist eines der jüngsten vulkanischen Gebiete Mitteleuropas. Die letzte Eruption ereignete sich vor ungefähr 11000 Jahren. Bisher ist relativ wenig bekannt über die tieferen Mechanismen, die für den Vulkanismus in der Eifel verantwortlich sind. Erdbebenaktivität deutet ebenso darauf hin, dass die Eifel eines der geodynamisch aktivsten Gebiete Mitteleuropas ist. In dieser Arbeit wird die Receiver Function Methode verwendet, um die Strukturen des oberen Mantels zu untersuchen. 96 teleseismische Beben (mb > 5.2) wurden ausgewertet, welche von permanenten und mobilen breitbandigen und kurzperiodischen Stationen aufgezeichnet wurden. Das temporäre Netzwerk registrierte von November 1997 bis Juni 1998 und überdeckte eine Fläche von ungefähr 400x250 km². Das Zentrum des Netzwerkes befand sich in der Vulkaneifel. Die Auswertung der Receiver Function Analyse ergab klare Konversionen von der Moho und den beiden Manteldiskontinuitäten in 410 km und 660 km Tiefe, sowie Hinweise auf einen Mantel-Plume in der Region der Eifel. Die Moho wurde bei ungefähr 30 km Tiefe beobachtet und zeigt nur geringe Variationen im Bereich des Netzwerkes. Die beobachteten Variationen der konvertierten Phasen der Moho können mit lateralen Schwankungen in der Kruste zu tun haben, die mit den Receiver Functions nicht aufgelöst werden können. Die Ergebnisse der Receiver Function Methode deuten auf eine Niedriggeschwindigkeitszone zwischen 60 km bis 90 km in der westlichen Eifel hin. In etwa 200 km Tiefe werden im Bereich der Eifel amplitudenstarke positive Phasen von Konversionen beobachtet. Als Ursache hierfür wird eine Hochgeschwindigkeitszone vorgeschlagen, welche durch mögliches aufsteigendes, dehydrierendes Mantel-Material verursacht wird. Die P zu S Konversionen an der 410 km Diskontinuität zeigen einen späteren Einsatz als nach dem IASP91-Modell erwartet wird. Die migrierten Daten weisen eine Absenkung der 410 km Diskontinuität um bis zu 20 km Tiefe auf, was einer Erhöhung der Temperatur von bis zu etwa 140° Celsius entspricht. Die 660 km Diskontinuität weist keine Aufwölbung auf. Dies deutet darauf hin, dass kein Mantelmaterial direkt von unterhalb der 660 km Diskontinuität in der Eifel-Region aufsteigt oder, dass der Ursprung des Eifel-Plumes innerhalb der Übergangszone liegt.
Die intensive Auswertung unterschiedlicher schriftlicher und mündlicher Quellen sowie die Erschließung von damals "geheimer" Literatur für die Forschung heute ermöglicht eine differenzierte Rekonstruktion historischer Abläufe. Die vorliegende Arbeit nutzt diesen Zugang zur Darstellung von kleineren und größeren DDR-internen sportpolitischen Strukturwandlungen der 1960er und 1970er Jahre, die ihren Höhepunkt in einer dramatischen Umsteuerung des DDR-Hochleistungssports fanden. Es wird gezeigt, wie die Akteure unter Führung von Manfred EWALD, gewähltem Mitglied des SED-Zentralkomitees, einer Zentralfigur des DDR-Sports (vergleichbar mit der Bedeutung eines Willi DAUME im Westen) zwischen Systemzwängen und individueller Handlungsfreiheit innerhalb des Rahmens einer Diktatur in der Phase des Wechsels von Walter ULBRICHT zu Erich HONECKER eine Effektivierung des zentralistischen Modells durchsetzten (eine Parallele zum Ansatz von Monika KAISER). Im Gegensatz zu vielen kontroversen Erklärungsmodellen belegt der Verf., dass die Medaillenerfolge durch die zentrale Steuerung aller Abläufe gewährleistet wurden. Ohne SED-Auftrag wurde 1967 die "Leistungssportkommission der DDR" (LSK der DDR) gebildet. Im Unterschied zu den zahlreichen vom Verf. erstmals dargestellten Vorgängermodellen war diese SED-LSK "oberhalb des DTSB" angesiedelt und erteilte ihm Parteiaufträge - die Unterordnung des organisierten Sports unter die Autorität des Zentralkomitee machte angesichts der "Nationalen Fronten" von Armeesportvereinigung "Vorwärts" und Sportvereinigung "Dynamo" (SPITZER) jegliche zentrale Sportpolitik erst durchsetzbar. Zur "LSK der DDR" waren SED-Mitglieder abgeordnet, welche ihr Sachgebiet vertraten und nach gemeinsamer Beschlussfassung die Ergebnisse der LSK-Arbeit wiederum in ihrem jeweiligen Tätigkeitsfeld durchzusetzen hatten, was in der Diss. ausgeführt wird. Sportvertreter ebenso wie hochrangige Abgesandte der Ministerien, die mit der Produktion von Gütern für den Hochleistungssport befasst waren, gehörten den LSK-Gremien an, die auch die DDR-Sportwissenschaft steuerten; es lässt sich sogar nachweisen, dass die Herrschaft über diesen wichtigen Apparat sowie die Dopingforschung ein Hauptmotiv der LSK-Bildung gewesen ist. Durch seine Quellenorientierung und die Fülle an Belegen gibt die vorliegende Arbeit neue Anreize zur Auseinandersetzung mit dem Phänomen der Steuerung des Hochleistungssports in der DDR - auch über den Untersuchungszeitraum hinaus. Die Untersuchung wurde von der Humanwissenschaftlichen Fakultät der Universität Potsdam als Dissertation angenommen. Sie geht auf ein Stipendium dieser Universität zurück; das Verfahren konnte mit einem Prädikat abgeschlossen werden. Gutachter waren Prof. Dr. Dr. Gertrud PFISTER, Kopenhagen, Prof. Dr. Christoph KLEßMANN, Potsdam, und der Betreuer, Steady Visiting Prof. Univ. Odense, Priv.-Doz. Dr. habil. Giselher SPITZER, Berlin / Potsdam / Odense (Dänemark).
In der vorliegenden Dissertation wird die Bedeutung von Brachen für Artenvielfalt und Stabilität von Blüte-Bestäuber-Nahrungsnetzen in agrarisch genutzten Landschaften anhand ausgewählter blütenbesuchender Insektengruppen (Syrphidae, Lepidoptera) untersucht. Die Freilandarbeiten fanden von 1998-2000 im Raum der Feldberger Seenlandschaft, Mecklenburg-Vorpommern, statt. Es werden die beiden Hauptnahrungsquellen Nektar und Pollen betrachtet, dabei fanden Untersuchungen zur Intensität der Blüte-Bestäuber-Interaktion auf Stilllegungsflächen, zum flächenbezogenen quantitativen Nektarangebot im Jahresverlauf, zur individuellen Pollennutzung bei Syrphiden und zur Breite und Überlappung der Nahrungsnischen bei den dominanten Arten Episyrphus balteatus, Metasyrphus corollae, Syritta pipiens und Sphaerophoria scripta statt. Im Ergebnis zeigt sich eine hohe Bedeutung der Brachflächen für die Stabilität des Blüte-Bestäuber-Netzes, während die Diversität von anderen, eher landschaftsbezogenen Faktoren abhängig ist.
In der nichtlinearen Datenreihenanalyse hat sich seit etwa 10 Jahren eine Monte-Carlo-Testmethode etabliert, die Theiler-surrogatmethode, mit Hilfe derer entschieden werden kann, ob eine Datenreihe nichtlinearen Ursprungs sei. Diese Methode wird kritisiert, modifiziert und verallgemeinert. Das, was Theiler untersuchen will braucht andere Surrogatmethoden, die hier konstruiert werden. Und das, was Theiler untersucht braucht gar keine Monte-Carlo-Methoden. Mit Hilfe des in der Arbeit eingeführten Begriffs des Phasensignals werden Testmöglichkeiten dargelegt und Beziehungen zwischen den nichtlinearen Eigenschaften der Zeitreihe und deren Phasenspektrum erforscht. Das Phasensignal wird aus dem Phasenspektrum der Zeitreihe hergeleitet und registriert außerordentliche Geschehnisse im Zeitbereich sowie Phasenkopplungen im Frequenzbereich. Die gewonnenen Erkenntnisse werden auf das Problem der Polbewegung angewendet. Die Hypothese einer nichtlinearen Beziehung zwischen der atmosphärischen Erregung und der Polbewegung wird untersucht. Eine nichtlineare Behandlung wird nicht für nötig gehalten.
Die Landschaften Mitteleuropas sind das Resultat einer langwierigen Geschichte menschlicher Landnutzung mit ihren unterschiedlichen, z.T. konkurrierenden Nutzungsansprüchen. Durch eine überwiegend intensive Beanspruchung haben die direkten und indirekten Auswirkungen der Landnutzung in vielen Fällen zu Umweltproblemen geführt. Die Disziplin der Landschaftsökologie hat es sich zur Aufgabe gemacht, Konzepte für eine nachhaltige Nutzung der Landschaft zu entwickeln. Eine wichtige Fragestellung stellt dabei die Abschätzung der möglichen Folgen von Landnutzungsänderungen dar. Für die Analyse der relevanten Prozesse in der Landschaft werden häufig mathematische Modelle eingesetzt, welche es erlauben die Landschaft unter aktuellen Verhältnissen oder hinsichtlich veränderter Rahmenbedingungen zu untersuchen. Die hypothetische Änderung der Landnutzung, die als Landnutzungsszenario bezeichnet wird, verkörpert eine wesentliche Modifikation der Rahmenbedingungen, weil Landnutzung maßgeblich Einfluss auf die natürlichen Prozesse der Landschaft nimmt. Während die Antriebskräfte einer solchen Änderung überwiegend von sozio-ökonomischen und politischen Entscheidungen gesteuert werden, orientiert sich die exakte Verortung der Landnutzungsänderungen an den naturräumlichen Bedingungen und folgt z.T. erkennbaren Regeln. Anhand dieser Vorgaben ist es möglich, räumlich explizite Landnutzungsszenarien zu entwickeln, die als Eingangsdaten für die Modellierung verschiedener landschaftsökologischer Fragestellungen wie z.B. für die Untersuchung des Einflusses der Landnutzung auf den Wasserhaushalt, die Erosionsgefahr oder die Habitatqualität dienen können. Im Rahmen dieser Dissertation wurde das rasterbasierte deterministische Allokationsmodell luck (Land Use Change Scenario Kit) für die explizite Verortung der Landnutzungsänderungen entwickelt. Es basiert auf den in der Landschaftsökologie üblichen räumlichen Daten wie Landnutzung, Boden sowie Topographie und richtet sich bei der Szenarienableitung nach den Leitbildern der Landschaftsplanung. Das Modell fußt auf der Hypothese, dass das Landnutzungsmuster als Funktion seiner landschaftsökologischen Faktoren beschrieben werden kann. Das Veränderungspotenzial einer Landnutzungseinheit resultiert im Modell aus einer Kombination der Bewertung der relativen Eignung des Standortes für die jeweilige Landnutzung und der Berücksichtigung von Standorteigenschaften der umliegenden Nachbarn. Die Durchführung der Landnutzungsänderung im Modell ist iterativ angelegt, um den graduellen Prozess des Landschaftswandels nachvollziehen zu können. Als Fallbeispiel für die Anwendung solcher räumlich expliziten Landnutzungsszenarien dient die Fragestellung, inwieweit Landnutzungsänderungen die Hochwasserentstehung beeinflussen. Um den Einfluss auf die Hochwasserentstehung für jede der Landnutzungskategorien – bebaute, landwirtschaftlich genutzte und naturnahe Flächen – abschätzen zu können, wird im Landnutzungsmodell luck exemplarisch für jede Kategorie ein Teilmodell für die Veränderung von Landnutzung angeboten: 1) Ausdehnung der Siedlungsfläche: Dieses Teilmodell fußt auf der Annahme, dass sich Siedlungen nur in direkter Nachbarschaft bereits bestehender Bebauung und bevorzugt entlang von Entwicklungsachsen ausbreiten. Steile Hangneigungen stellen für potenzielle Standorte ein Hemmnis bei der Ausbreitung dar. 2) Stilllegung von Grenzertragsackerflächen: Gemäß der Hypothese, dass sich die Stilllegung von Ackerflächen an der potenziellen Ertragsleistung der Standorte orientiert, werden in diesem Teilmodell alle Ackerstandorte dahingehend bewertet und die Flächen mit der geringsten Leistungsfähigkeit stillgelegt. Bei homogenen Gebietseigenschaften werden die Stilllegungsflächen zufällig auf die Ackerfläche verteilt. 3) Etablierung von Schutzgebieten in Ufer- und Auenbereichen: Ausgehend von der These, dass sich entlang von Flüssen sensible Flächen befinden, deren Schutz positive Folgen für das Leistungsvermögen der Landschaft haben kann, werden in diesem Teilmodell schützenswerte Ufer- und Auenbereiche auf derzeit landwirtschaftlich genutzten Flächen ausgewiesen. Die Größe der Schutzgebietsfläche orientiert sich an der Morphologie der umgebenden Landschaft. Die drei Teilmodelle wurden hinsichtlich der implizierten Hypothesen mit vielen unterschiedlichen Ansätzen validiert. Das Resultat dieser intensiven Analyse zeigt für jedes Teilmodell eine zufriedenstellende Tauglichkeit. Die Modellierung der Landnutzungsänderungen wurden in drei mesoskaligen Flusseinzugsgebieten mit einer Fläche zwischen 100 und 500 km² durchgeführt, die sich markant in ihrer Landnutzung unterscheiden. Besonderer Wert wurde bei der Gebietsauswahl darauf gelegt, dass eines der Gebiete intensiv landwirtschaftlich genutzt wird, eines dicht besiedelt und eines vorwiegend bewaldet ist. Im Hinblick auf ihre Relevanz für die vorliegende Fragestellung wurden aus bestehenden Landnutzungstrends die Szenarien für (1) die prognostizierte Siedlungsfläche für das Jahr 2010, (2) die möglichen Konsequenzen des EU-weiten Beschlusses der Agenda 2000 und (3) die Novelle des Bundesnaturschutzgesetzes aus dem Jahr 2001 abgeleitet. Jedes Szenario wurde mit Hilfe des Modells auf die drei Untersuchungsgebiete angewendet. Dabei wurden für die Siedlungsausdehnung in allen drei Gebieten realistische Landnutzungsmuster generiert. Einschränkungen ergeben sich bei der Suche nach Grenzertragsstilllegungsflächen. Hier hat unter homogenen Gebietseigenschaften die zufällige Verteilung von Flächen für die Stilllegung zu einem unrealistischen Ergebnis geführt. Die Güte der Schutzgebietsausweisung ist maßgeblich an die aktuelle Landnutzung der Aue und die Morphologie des Geländes gebunden. Die besten Ergebnisse werden erzielt, wenn die Flächen in den Ufer- und Auenbereichen mehrheitlich unter derzeitiger Ackernutzung stehen und der Flusslauf sich in das Relief eingetieft hat. Exemplarisch werden für jeden Landnutzungstrend die hydrologischen Auswirkungen anhand eines historischen Hochwassers beschrieben, aus denen jedoch keine pauschale Aussage zum Einfluss der Landnutzung abgeleitet werden kann. Die Studie demonstriert die Bedeutung des Landnutzungsmusters für die natürlichen Prozesse in der Landschaft und unterstreicht die Notwendigkeit einer räumlich expliziten Modellierung für landschaftsökologische Fragestellungen in der Mesoskala.
Das Ziel dieser Arbeit ist es, die Strukturen im äußeren Erdkern zu untersuchen und Rückschlüsse auf die sich daraus ergebenden Konsequenzen für geodynamische Modellvorstellungen zu ziehen. Die Untersuchung der Kernphasenkaustik B mit Hilfe einer kumulierten Amplituden-Entfernungskurve ist Gegenstand des ersten Teils. Dazu werden die absoluten Amplituden der PKP-Phasen im Entfernungsbereich von 142 ° bis 147 ° bestimmt und mit den Amplituden synthetischer Seismogramme verglichen. Als Datenmaterial dienen die Breitbandregistrierungen des Deutschen Seismologischen Re-gionalnetzes (GRSN 1 ) und des Arrays Gräfenberg (GRF). Die verwendeten Wellen-formen werden im WWSSN-SP-Frequenzbereich gefiltert. Als Datenbasis dienen vier Tiefherdbeben der Subduktionszone der Neuen Hebriden (Vanuatu Island) und vier Nuklearexplosionen, die auf dem Mururoa und Fangataufa Atoll im Südpazifik stattgefunden haben. Beide Regionen befinden sich vom Regionalnetz aus gesehen in einer Epizentraldistanz von ungefähr 145 °. Die Verwendung eines homogen instrumentierten Netzes von Detektoren und die Anwendung von Stations- und Magnitudenkorrekturen verringern den Hauptteil der Streuung bei den Amplitudenwerten. Dies gilt auch im Vergleich zu Untersuchungen von langperiodischen Amplituden im Bereich der Kernphasenkaustik (Häge, 1981). Ein weiterer Grund für die geringe Streuung ist die ausschließliche Verwendung von Ereignissen mit kurzer impulsiver Herdzeitfunktion. Erst die geringe Streuung der Amplitudenwerte ermöglicht eine Interpretation der Daten. Die theoretischen Amplitudenkurven der untersuchten Erdmodelle zeigen im Bereich der Kaustik B einen gleichartigen Kurvenverlauf. Bei allen Berechnungen wird ein einheitliches Modell für die Güte der P- und S-Wellen verwendet, das sich aus den Q-Werten der Modelle CIT112 und PREM 2 zusammensetzt. Die mit diesem Q-Modell berechneten Amplituden liegen in geringem Maße oberhalb der gemessenen Amplituden. Dies braucht nicht berücksichtigt zu werden, da die kumulierte Amplituden-Entfernungskurve anhand der Lage des Maximums auf der Entfernungsachse ausgewertet wird. Folglich wird darauf verzichtet, ein alternatives Q-Modell zu entwickeln. Hinsichtlich der Lage des Kaustikmaximums lassen sich die untersuchten Erdmodelle in zwei Kategorien einteilen. Eine Gruppe besteht aus den Modellen IASP91 und 1066B, deren Maxima bei 144.6 ° und 144.7 ° liegen. Zur zweiten Gruppe von Modellen zählen AK135, PREM und SP6 mit den Maxima bei 145.1 ° und 145.2 ° (SP6). Die gemessene Amplitudenkurve hat ihr Maximum bei 145 °. Alle Entfernungsangaben beziehen sich auf eine Herdtiefe von 200 km. Die Kaustikentfernung für einen Oberflächenherd ist jeweils um 0.454 ° größer als die angegeben Werte. Damit liegen die Maxima der Modelle AK135 und PREM nur 0.1 ° neben dem der gemessenen kumulierten Amplitudenkurve. Daher wird auf die Erstellung eines eigenen Modells verzichtet, da dieses eine unwesentlich verbesserte Amplitudenkurve aufweisen würde. Das Ergebnis der Untersuchung ist die Erstellung einer gemessenen kumulierten Amplituden-Entfernungskurve für die Kaustik B. Die Kurve legt die Position der Kaustik B für kurzperiodische Daten auf ± 0.15 ° fest und bestimmt damit, welche Erdmodelle für die Beschreibung der Amplituden im Entfernungsbereich der Kaustik B besonders geeignet sind. Die Erdmodelle AK135 und PREM, ergänzt durch ein einheitliches Q-Modell, geben den Verlauf der Amplituden am besten wieder. Da die Amplitudenkurven beider Modelle nahe beieinander liegen, sind sie als gleichwertig zu bezeichnen. Im zweiten Teil der Arbeit wird die Struktur der Übergangszone in den inneren Erdkern anhand des spektralen Abklingens der Phase PKP(BC)diff am Punkt C der Laufzeitkurve untersucht. Der physikalische Prozeß der Beugung ist für die starke Abnahme der Amplituden dieser Phase verantwortlich. Die Diffraktion beeinflußt das Abklingverhalten verschiedener Frequenzanteile des seismischen Signals auf unterschiedliche Weise. Eine Deutung des Verhaltens erfordert die Berechnung von Abklingspektren. Dabei wird die Abschwächung des PKP(BC)diff Signals für acht Frequenzen zwischen 6.4 s und 1.25 Hz ermittelt und als Spektrum dargestellt. Die Form des Abklingspektrums ist charakteristisch für die Beschaffenheit der Geschwindigkeitsstruktur direkt oberhalb der Grenze zum inneren Erdkern (GIK). Die Beben, deren Kernphasen im Regionalnetz als diffraktierte Kernphasen BCdiff registriert werden, liegen in einem Entfernungsbereich jenseits von 150 °. In dieser Distanz befinden sich die Erdbebenherde der Tonga-Fidschi-Subduktionszone, deren Breitbandaufzeichnungen verwendet werden. Die Auswertung unkorrigierter Wellenformen ergibt Abklingspektren, die mit plausiblen Erdmodellen nicht in Einklang zu bringen sind. Aus diesem Grund werden die Daten einer spektralen Stationskorrektur unterzogen, die eigens zu diesem Zweck ermittelt wird. Am Beginn der Auswertung steht eine Prüfung bekannter Erdmodelle mit unterschiedlichen Geschwindigkeitsstrukturen oberhalb der GIK. Zu den untersuchten Modellen zählen PREM, IASP91, AK135Q, PREM2, SP6, OICM2 und eine Variante des PREM. Die Untersuchung ergibt, daß Modelle, die einen verringerten Gradienten oberhalb der GIK aufweisen, eine bessere Übereinstimmung mit den gemessenen Daten zeigen als Modelle ohne diese Übergangszone. Zur Verifikation dieser These wird ein Erdmodell, das keinen verringerten Gradienten oberhalb der GIK besitzt (PREM), durch eine Reihe unterschiedlicher Geschwindigkeitsverläufe in diesem Bereich ergänzt und deren synthetische Seismogramme berechnet. Das Resultat der Untersuchung sind zwei Varianten des PREM, deren Frequenzanalyse eine gute Übereinstimmung mit den Daten zeigt. Das Abklingspektrum des Erdmodells PD47, das in einer 380 km mächtigen Schicht einen negativen Gradienten besitzt, zeigt eine große Ähnlichkeit mit den gemessenen Spektren. Dennoch kann es nicht als realistisches Modell angesehen werden, da der Punkt C in einer zu großen Entfernung liegt. Darüber hinaus müßte die zu kurze Differenzlaufzeit zwischen PKP(AB) und PKP(DF) beziehungsweise PKIKP durch eine größere Änderung der Geschwindigkeitsstruktur im inneren Kern kompensiert werden. Es wird deshalb das Modell PD27a favorisiert, das diese Nachteile nicht aufweist. PD27a besitzt eine Schicht konstanter Geschwindigkeit oberhalb der GIK mit einer Mächtigkeit von 150 km. Die Art des Geschwindigkeitsverlaufs steht im Einklang mit der geodynamischen Modellvorstellung, nach der eine Anreicherung leichter Elemente oberhalb der GIK vorliegt, die als Ursache für die Konvektion im äußeren Erdkern anzusehen ist.
Das Lektin aus Pisum sativum, der Gartenerbse, ist Teil der Familie der Leguminosenlektine. Diese Proteine haben untereinander eine hohe Sequenzhomologie, und die Struktur ihrer Monomere, ein all-ß-Motiv, ist hoch konserviert. Dagegen gibt es innerhalb der Familie eine große Vielfalt an unterschiedlichen Quartärstrukturen, die Gegenstand kristallographischer und theoretischer Arbeiten waren. Das Erbsenlektin ist ein dimeres Leguminosenlektin mit einer Besonderheit in seiner Struktur: Nach der Faltung in der Zelle wird aus einem Loop eine kurze Aminosäuresequenz herausgeschnitten, so dass sich in jeder Untereinheit zwei unabhängige Polypeptidketten befinden. Beide Ketten sind aber stark miteinander verschränkt und bilden eine gemeinsame strukturelle Domäne. Wie alle Lektine bindet Erbsenlektin komplexe Oligosaccharide, doch sind seine physiologische Rolle und der natürliche Ligand unbekannt. In dieser Arbeit wurden Versuche zur Entwicklung eines Funktionstests für Erbsenlektin durchgeführt und seine Faltung, Stabilität und Monomer-Dimer-Gleichgewicht charakterisiert. Um die spezifische Rolle der Prozessierung für Stabilität und Faltung zu untersuchen, wurde ein unprozessiertes Konstrukt in E. coli exprimiert und mit der prozessierten Form verglichen. Beide Proteine zeigen die gleiche kinetische Stabilität gegenüber chemischer Denaturierung. Sie denaturieren extrem langsam, weil nur die isolierten Untereinheiten entfalten können und das Monomer-Dimer-Gleichgewicht bei mittleren Konzentrationen an Denaturierungsmittel auf der Seite der Dimere liegt. Durch die extrem langsame Entfaltung zeigen beide Proteine eine apparente Hysterese im Gleichgewichtsübergang, und es ist nicht möglich, die thermodynamische Stabilität zu bestimmen. Die Stabilität und die Geschwindigkeit der Assoziation und Dissoziation in die prozessierten bzw. nichtprozessierten Untereinheiten sind für beide Proteine gleich. Darüber hinaus konnte gezeigt werden, dass auch unter nicht-denaturierenden Bedingungen die Untereinheiten zwischen den Dimeren ausgetauscht werden. Die Renaturierung der unprozessierten Variante ist unter stark nativen Bedingungen zu 100 % möglich. Das prozessierte Protein dagegen renaturiert nur zu etwa 50 %, und durch die Prozessierung ist die Faltung stark verlangsamt, der Faltungsprozess ist erst nach mehreren Tagen abgeschlossen. Im Laufe der Renaturierung wird ein Intermediat populiert, in dem die längere der beiden Polypeptidketten ein Homodimer mit nativähnlicher Untereinheitenkontaktfläche bildet. Der geschwindigkeitsbestimmende Schritt der Renaturierung ist die Assoziation der entfalteten kürzeren Kette mit diesem Dimer.