Refine
Has Fulltext
- yes (2503) (remove)
Year of publication
Document Type
- Doctoral Thesis (2503) (remove)
Language
Keywords
- climate change (52)
- Klimawandel (50)
- Modellierung (34)
- Nanopartikel (28)
- machine learning (21)
- Fernerkundung (20)
- Synchronisation (19)
- remote sensing (18)
- Spracherwerb (17)
- Blickbewegungen (16)
Institute
- Institut für Physik und Astronomie (402)
- Institut für Biochemie und Biologie (380)
- Institut für Geowissenschaften (325)
- Institut für Chemie (301)
- Extern (147)
- Institut für Umweltwissenschaften und Geographie (121)
- Institut für Ernährungswissenschaft (102)
- Wirtschaftswissenschaften (97)
- Department Psychologie (87)
- Hasso-Plattner-Institut für Digital Engineering GmbH (86)
Das folgende Forschungsprojekt beschäftigt sich mit metakognitiven und motivationalen Fähigkeiten als Teilbereiche des selbstgesteuerten Lernens. Es untersucht den Nutzen und die Grenzen von Lerntagebüchern, die zugeschnitten wurden auf Grundschülerinnen und Grundschüler mit Migrationshintergrund. Das Ziel der Studie war es herauszufinden, ob und wie selbststeurungsbezogene Lernprozesse durch den Einsatz von Lerntagebüchern gemessen und verändert werden können. Hierzu führten 28 Grundschülerinnen und Grundschüler 14 Wochen lang während des Unterrichts ein halbstandardisiertes Lerntagebuch in Anlehnung an Wohland/Spinath (2004). Zur Messung von Veränderungen in metakognitiven und motivationalen Fähigkeiten füllten 43 Schülerinnen und Schüler zweier Experimentalgruppen und einer Kontrollgruppe vor und nach der Lerntagebuch-Intervention standardisierte Fragebögen aus. Weiterhin wurden die 28 Lerntagebücher der Experimentalgruppen inhalts- und prozessanalytisch ausgewertet. Außerdem wurden Interviews mit den Lehrkräften über ihre Unterrichtspraxis geführt und einige Schülerinnen und Schüler zu ihrer Wahrnehmung der Lerntagebucharbeit befragt. Die Ergebnisse der Analyse der Lerntagebuchdaten zeigen, dass die 28 Schülerinnen und Schüler mit Migrationshintergrund erfolgreich ihren Lernprozess bei der Bearbeitung einer Aufgabe verbalisierten. Sie haben weiterhin erfolgreich Vorhersagen über ihre Vorgehensweisen zur Lösung einer Aufgabe getroffen. Die Lerntagebücher unterstützten sie darin, ihre metakognitiven Erfahrungen (Efklides/Petkaki 2005) zu kalibrieren (Desoete/Roeyers 2006). Den Lernenden ist es gelungen, ihre Repräsentationen über das Lösen einer Aufgabe aufeinander (fein-) abzustimmen, während sie daran arbeiteten. Mit Hilfe von Zeitreihenanalysen konnte gezeigt werden, dass die Schülerinnen und Schüler die Fragen im Lerntagebuch gegen Ende der Intervention oberflächlicher beantworteten und die Lerntagebücher tendenziell weniger häufig ausgefüllt wurden (negative Trends). Eine Erklärung für die geringere Antworthäufigkeit, die zu negativen Verlaufskurven über die Zeit führten, könnte sein, dass die Instruktionsdichte durch den Mix an offenen und geschlossenen Fragen im Lerntagebuch zu hoch war. Die Lernenden haben sich möglicherweise so an die Fragen bzw. Antwortformate gewöhnt, dass die Motivation, in das Lerntagebuch zu schreiben, geringer wurde.
Einleitung
Ältere Patienten mit Herzklappenerkrankungen werden zunehmend häufig mit der kathetergestützten Aortenklappenimplantation (Transcatheter Aortic Valve Implantation, TAVI) oder dem MitraClip®-Verfahren behandelt. In der kardiologischen Rehabilitation nimmt infolgedessen die Patientenpopulation der Hochbetagten stetig zu. Die funktionale Gesundheit dieser Patienten wird durch häufig auftretende, sogenannte geriatrische Syndrome wie Multimorbidität, Mangelernährung, Gebrechlichkeit oder Sturzereignisse beeinflusst. Insbesondere die eingeschränkte Mobilität und Mangelernährung sind wichtige Prädiktoren für die Prognose der Patienten nach TAVI.
Etablierte Verfahren, um die körperliche Leistungsfähigkeit von kardiologischen Rehabilitanden zu beurteilen, sind die Belastungsergometrie und der 6-Minuten-Gehtest. Allerdings ist nahezu die Hälfte der hochbetagten Patienten nicht in der Lage, eine Belastungsergometrie durchzuführen. Bislang erfolgt in der kardiologischen Rehabilitation keine differenzierte Erfassung des funktionellen Status hinsichtlich Mobilität, Kraft und Gleichgewicht, um die geriatrischen Syndrome individuell zu beurteilen. Darüber hinaus werden keine Assessments zur Erfassung des Ernährungsstatus eingesetzt.
Daher war es das Ziel der vorliegenden Arbeit, die Ausprägung des funktionellen und nutritiven Status älterer Patienten anhand geeigneter Assessments in der kardiologischen Rehabilitation zu ermitteln.
Methode
Zwischen Oktober 2018 und Juni 2019 nahmen Patienten im Alter von 75 Jahren oder älter nach TAVI, atrioventrikulärer Intervention mittels MitraClip®-Verfahren (AVI) oder perkutaner Koronarintervention (PCI) an der Studie teil. Zu Beginn der kardiologischen Rehabilitation wurden soziodemografische Daten, echokardiografische Parameter (z. B. links und rechtsventrikuläre Ejektionsfraktion, Herzrhythmus) und Komorbiditäten (z. B. Diabetes mellitus, Niereninsuffizienz, orthopädische Erkrankungen) erhoben, um die Patientenpopulation zu beschreiben. Zusätzlich wurde die Gebrechlichkeit der Rehabilitanden mit dem Index von Stortecky et al., bestehend aus den Komponenten Kognition, Mobilität, Ernährung und Aktivitäten des täglichen Lebens, beurteilt.
Der 6-Minuten-Gehtest diente zur Ermittlung der körperlichen Leistungsfähigkeit der Patienten. Die Mobilität wurde mit Hilfe des Timed-Up-and-Go-Tests, die Ganggeschwindigkeit mit dem Gait Speed Test und die Handkraft mit dem Hand Grip Test erfasst.
Für die Objektivierung des Gleichgewichts wurde eine Kraftmessplatte (uni- und bipedaler Stand mit geöffneten und geschlossenen Augen) erprobt, die bislang bei älteren Rehabilitanden noch nicht eingesetzt wurde.
Der Ernährungsstatus wurde mit dem Mini Nutritional Assessment-Short Form und den ernährungsbezogenen Laborparametern (Hämoglobin, Serumalbumin, Eiweißkonzentration) erfasst.
Die Eignung der Assessments bewerteten wir anhand folgender Kriterien: Durchführbarkeit (bei ≥ 95 % der Patienten durchführbar), Sicherheit (< 95 % Stürze oder andere unerwünschte Ereignisse) und der Pearson-Korrelationen zwischen den funktionellen Tests und dem Goldstandard 6-Minuten-Gehtest sowie den Laborparametern und dem Mini Nutritional Assessment-Short Form.
Ergebnisse
Es wurden 124 Patienten (82 ± 4 Jahre, 48 % Frauen, 5 ± 2 Komorbiditäten, 9 ± 3 Medikamente) nach TAVI (n = 59), AVI (n = 21) und PCI (n = 44) konsekutiv in die Studie eingeschlossen.
Etwa zwei Drittel aller Patienten der Gesamtpopulation waren als gebrechlich zu klassifizieren, bei einer mittleren Punktzahl von 2,9 ± 1,4. Annähernd die Hälfte der Patienten zeigte eine eingeschränkte körperliche Leistungsfähigkeit aufgrund einer reduzierten 6-Minuten-Gehstrecke (48 % < 350 m) sowie eine eingeschränkte Mobilität im Timed-Up-and-Go-Test (55 % > 10 s). Es wurden eine mittlere Gehstrecke von 339 ± 131 m und eine durchschnittliche Zeit im Timed-Up-and-Go-Test von 11,4 ± 6,3 s erzielt. Darüber hinaus wies ein Viertel der Patienten eine eingeschränkte Ganggeschwindigkeit (< 0,8 m/s) auf und etwa 35 % von Ihnen zeigten eine reduzierte Handkraft (Frauen/Männer < 16/27 kg). Im Mittel wurde eine Geschwindigkeit von 1,0 ± 0,2 m/s im Gait Speed Test sowie eine Handkraft von 24 ± 9 kg im Hand Grip Test erreicht. Ein Risiko einer Mangelernährung konnte bei 38 % (< 12 Punkte) der Patienten nachgewiesen werden bei einer mittleren Punktzahl von 11,8 ± 2,2 im Mini Nutritional Assessment-Short Form.
Im Vergleich zwischen den einzelnen Subpopulationen bestanden keine statistisch signifikanten Unterschiede in den Ergebnissen der funktionellen Assessments. Bezüglich des Ernährungsstatus wiesen allerdings die Patienten nach AVI einen statistisch signifikant niedrigeren Punktewert im Mini Nutritional Assessment-Short Form (10,3 ± 3,0 Punkte) auf als die Patienten nach TAVI (12,0 ± 1,8 Punkte) und PCI (12,1 ± 2,1 Punkte), wobei etwa 57 % der Patienten nach AVI, 38 % nach TAVI und 50 % nach PCI ein Risiko einer Mangelernährung zeigten.
Mit Ausnahme der Tests auf der Kraftmessplatte waren alle Assessments durchführbar und sicher. Während 86 % der Patienten den bipedalen Stand mit geschlossenen Augen auf der Kraftmessplatte durchführen konnten und damit nahezu den Grenzwert von 95 % erreichten, war der unipedale Stand mit 12 % an durchführbaren Messungen weit von diesem entfernt.
Der Gait Speed Test (r = 0,79), Timed-Up-and-Go-Test (r = 0,68) und Hand Grip Test (r = 0,33) korrelierten signifikant mit dem 6-Minuten-Gehtest, Hämoglobin (r = 0,20) und Albumin (r = 0,24) korrelierten mit dem Mini Nutritional Assessment-Short Form.
Schlussfolgerung
Über die bestehende Multimorbidität und Multimedikation hinaus wiesen die untersuchten Patienten vor allem eine eingeschränkte Mobilität und ein Risiko einer Mangelernährung auf, wobei die Subpopulation nach AVI besonders betroffen war.
Um den Bedürfnissen hochbetagter Rehabilitanden nach kathetergestützer Intervention gerecht zu werden, ist eine individuelle Behandlung der einzelnen Defizite erforderlich, mit besonderer Berücksichtigung der Komorbiditäten sowie der geriatrischen Kofaktoren. Aufgrund des multidisziplinären Ansatzes erfüllt die kardiologische Rehabilitation bereits die Voraussetzung, hochbetagte Patienten bedarfsgerecht zu behandeln, jedoch mangelt es an Assessments, um die individuellen Defizite der Patienten zu identifizieren
Der Gait Speed Test, der Timed-Up-and-Go-Test und der Hand Grip Test sollten daher in den klinischen Alltag der kardiologischen Rehabilitation implementiert werden, um die körperliche Funktion und Leistungsfähigkeit älterer Patienten detailliert zu beurteilen. In Kombination dieser Assessments mit dem Mini Nutritional Assessment-Short Form können die individuellen funktionellen und nutritiven Bedürfnisse der Patienten während der Rehabilitation erkannt und mit geeigneten Maßnahmen die weitere Ausbildung geriatrischer Syndrome gemindert werden.
Die Arbeit gibt einen Einblick in die Verständigungspraxen bei Stadtführungen mit (ehemaligen) Obdachlosen, die in ihrem Selbstverständnis auf die Herstellung von Verständnis, Toleranz und Anerkennung für von Obdachlosigkeit betroffene Personen zielen. Zunächst wird in den Diskurs des Slumtourismus eingeführt und, angesichts der Vielfalt der damit verbundenen Erscheinungsformen, Slumming als organisierte Begegnung mit sozialer Ungleichheit definiert. Die zentralen Diskurslinien und die darin eingewobenen moralischen Positionen werden nachvollzogen und im Rahmen der eigenommenen wissenssoziologischen Perspektive als Ausdruck einer per se polykontexturalen Praxis re-interpretiert. Slumming erscheint dann als eine organisierte Begegnung von Lebensformen, die sich in einer Weise fremd sind, als dass ein unmittelbares Verstehen unwahrscheinlich erscheint und genau aus diesem Grund auf der Basis von gängigen Interpretationen des Common Sense ausgehandelt werden muss. Vor diesem Hintergrund untersucht die vorliegende Arbeit, wie sich Teilnehmer und Stadtführer über die Erfahrung der Obdachlosigkeit praktisch verständigen und welcher Art das hierüber erzeugte Verständnis für die im öffentlichen Diskurs mit vielfältigen stigmatisierenden Zuschreibungen versehenen Obdachlosen ist. Dabei interessiert besonders, in Bezug auf welche Aspekte der Erfahrung von Obdachlosigkeit ein gemeinsames Verständnis möglich wird und an welchen Stellen dieses an Grenzen gerät. Dazu wurden die Gesprächsverläufe auf neun Stadtführungen mit (ehemaligen) obdachlosen Stadtführern unterschiedlicher Anbieter im deutschsprachigen Raum verschriftlicht und mit dem Verfahren der Dokumentarischen Methode ausgewertet. Die vergleichende Betrachtung der Verständigungspraxen eröffnet nicht zuletzt eine differenzierte Perspektive auf die in den Prozessen der Verständigung immer schon eingewobenen Anerkennungspraktiken. Mit Blick auf die moralische Debatte um organisierte Begegnungen mit sozialer Ungleichheit wird dadurch eine ethische Perspektive angeregt, in deren Zentrum Fragen zur Vermittlungsarbeit stehen.
Diese Arbeit beschäftigt sich mit der Annahme, dass den Erdbeben ein selbstorganisiert kritischer Zustand der Erdkruste zugrunde liegt. Mit Hilfe einer Erweiterung bisheriger Modelle wird gezeigt, dass ein solcher Zustand nicht nur für die Grössenverteilung der Erdbeben (Gutenberg-Richter Gesetz), sondern auch für das beobachtete raumzeitliche Auftreten, z.B. für das Omori-Gesetz für Nachbebenserien, verantwortlich sein kann. Desweiteren wird die Frage nach der Vorhersagbarkeit grosser Erdbeben in solchen Modellsimulationen untersucht.
In nature, bacteria are found to reside in multicellular communities encased in self-produced extracellular matrices. Indeed, biofilms are the default lifestyle of the bacteria which cause persistent infections in humans. The biofilm assembly protects bacterial cells from desiccation and limits the effectiveness of antimicrobial treatments. A myriad of biomolecules in the extracellular matrix, including proteins, exopolysaccharides, lipids, extracellular DNA and other, form a dense and viscoelastic three dimensional network. Many studies emphasized that a destabilization of the mechanical integrity of biofilm architectures potentially eliminates the protective shield and renders bacteria more susceptible to the immune system and antibiotics. Pantoea stewartii is a plant pathogen which infects monocotyledons such as maize and sweet corn. These bacteria produce dense biofilms in the xylem of infected plants which cause wilting of plants and crops. Stewartan is an exopolysaccharide which is produced by Pantoea stewartii and secreted as the major component to the extracellular matrix. It consists of heptasaccharide repeating units with a high degree of polymerization (2-4 MDa). In this work, the physicochemical properties of stewartan were investigated to understand the contributions of this exopolysaccharide to the mechanical integrity and cohesiveness of Pantoea stewartii biofilms. Therefore, a coarse-grained model of stewartan was developed with computational techniques to obtain a model for its three dimensional structural features. Here, coarse-grained molecular dynamic simulations revealed that the exopolysaccharide forms a hydrogel in which the exopolysaccharide chains arrange into a three dimensional mesh-like network. Simulations at different concentrations were used to investigate the influence of the water content on the network formation. Stewartan was further purified from 72 h grown Pantoea stewartii biofilms and the diffusion of bacteriophage and differently-sized nanoparticles (which ranged from 1.1 to 193 nm diameter) was analyzed in reconstituted stewartan solutions. Fluorescence correlation spectroscopy and single-particle tracking revealed that the stewartan network impeded the mobility of a set of differently-sized fluorescent particles in a size-dependent manner. Diffusion of these particles became more anomalous, as characterized by fitting the diffusion data to an anomalous diffusion model, with increasing stewartan concentrations. Further bulk and microrheological experiments were used to analyze the transitions in stewartan fluid behavior and stewartan chain entanglements were described. Moreover, it was noticed, that a small fraction of bacteriophage particles was trapped in small-sized pores deviating from classical random walks which highlighted the structural heterogeneity of the stewartan network. Additionally, the mobility of fluorescent particles
also depended on the charge of the stewartan exopolysaccharide and a model of a molecular sieve for the stewartan network was proposed. The here reported structural features of the stewartan polymers were used to provide a detailed description of the mechanical properties of typically glycan-based biofilms such as the one from Pantoea stewartii.
In addition, the mechanical properties of the biofilm architecture are permanently sensed by the embedded bacteria and enzymatic modifications of the extracellular matrix take place to address environmental cues. Hence, in this work the influence of enzymatic degradation of the stewartan exopolysaccharides on the overall exopolysaccharide network structure was analyzed to describe relevant physiological processes in Pantoea stewartii biofilms. Here, the stewartan hydrolysis kinetics of the tailspike protein from the ΦEa1h bacteriophage, which is naturally found to infect Pantoea stewartii cells, was compared to WceF. The latter protein is expressed from the Pantoea stewartii stewartan biosynthesis gene cluster wce I-III. The degradation of stewartan by the ΦEa1h tailspike protein was shown to be much faster than the hydrolysis kinetics of WceF, although both enzymes cleaved the β D GalIII(1→3)-α-D-GalI glycosidic linkage from the stewartan backbone. Oligosaccharide fragments which were produced during the stewartan cleavage, were analyzed in size-exclusion chromatography and capillary electrophoresis. Bioinformatic studies and the analysis of a WceF crystal structure revealed a remarkably high structural similarity of both proteins thus unveiling WceF as a bacterial tailspike-like protein. As a consequence, WceF might play a role in stewartan chain length control in Pantoea stewartii biofilms.
Ein genereller Ansatz zur Charakterisierung von biologischen Systemen bietet die Untersuchung des Metaboloms, dessen Analyse als „Metabolomics“ bezeichnet wird. “Omics”- Technologien haben das Ziel, ohne Selektionskriterien möglichst alle Bestandteile einer biologischen Probe zu detektieren (identifizieren und quantifizieren), um daraus Rückschlüsse auf nicht vorhersehbare und somit neuartige Korrelationen in biologischen Systemen zu ziehen. Ein zentrales Dogma in der Biologie besteht in der Kausalität zwischen Gen – Enzym – Metabolite. Perturbationen auf einer Ebene rufen systemische Antworten hervor, die in einem veränderten Phänotyp münden können. Metabolite sind die Endprodukte von zellulären regulatorischen Prozessen, deren Abundanz durch die Resonanz auf genetische Modifikationen oder Umwelteinflüsse zurückzuführen ist. Zudem repräsentieren Metabolite ultimativ den Phänotyp eines Organismus und haben die Fähigkeit als Biomarker zu fungieren. Die integrale Analyse verschiedenster Stoffwechselwegen wie Krebszyklus, Pentosephosphatzyklus oder Calvinzyklus offeriert die Identifikation von metabolischen Mustern. In dieser Arbeit wurden sowohl das targeted Profiling via GC-TOF-MS als auch das untargeted Profiling via GC-TOF-MS und LC-FT-MS als analytische Strategien genutzt, um biologische Systeme anhand ihrer Metabolite zu charakterisieren und um physiologische Muster als Resonanz auf endogene oder exogene Stimuli zu erkennen. Dabei standen die metabolische, phänotypische und genotypische Plastizität von Pflanzen im Fokus der Untersuchungen. Metabolische Varianzen eines Phänotyps reflektieren die genotyp-abhängige Resonanz des Organismus auf umweltbedingte Parameter (abiotischer und biotischer Stress, Entwicklung) und können mit sensitiven Metabolite Profiling Methoden determiniert werden. Diese Anwendungen haben unter anderem auch zum Begriff des „Environmental Metabolomics“ geführt. In Kapitel 2 wurde der Einfluss biotischer Interaktionen von endophytischen Bakterien auf den Metabolismus von Pappelklonen untersucht; Kapitel 3 betrachtet die metabolische Plastizität von Pflanzen im Freiland auf veränderte biotische Interaktionsmuster (Konkurrenz/Diversität/Artenzusammensetzung); Abschließend wurde in Kapitel 4 der Einfluss von spezifischen genetischen Modifikationen an Peroxisomen und den daraus resultierenden veränderten metabolischen Fluss der Photorespiration dargestellt. Aufgrund der sensitiven Analyse- Technik konnten metabolische Phänotypen, die nicht zwingend in einen morphologischen Phänotyp mündeten, in drei biologischen Systemen identifiziert und in einen stoffwechselphysiologischen Kontext gestellt werden. Die drei untersuchten biologischen Systeme – in vitro- Pappeln, Grünland- Arten (Arrhenatherion-Gesellschaft) und der Modellorganismus (Arabidopsis) – belegten anschaulich die Plastizität des Metabolismus der Arten, welche durch endogene oder exogene Faktoren erzeugt wurden.
Data profiling is the extraction of metadata from relational databases. An important class of metadata are multi-column dependencies. They come associated with two computational tasks. The detection problem is to decide whether a dependency of a given type and size holds in a database. The discovery problem instead asks to enumerate all valid dependencies of that type. We investigate the two problems for three types of dependencies: unique column combinations (UCCs), functional dependencies (FDs), and inclusion dependencies (INDs).
We first treat the parameterized complexity of the detection variants. We prove that the detection of UCCs and FDs, respectively, is W[2]-complete when parameterized by the size of the dependency. The detection of INDs is shown to be one of the first natural W[3]-complete problems. We further settle the enumeration complexity of the three discovery problems by presenting parsimonious equivalences with well-known enumeration problems. Namely, the discovery of UCCs is equivalent to the famous transversal hypergraph problem of enumerating the hitting sets of a hypergraph. The discovery of FDs is equivalent to the simultaneous enumeration of the hitting sets of multiple input hypergraphs. Finally, the discovery of INDs is shown to be equivalent to enumerating the satisfying assignments of antimonotone, 3-normalized Boolean formulas.
In the remainder of the thesis, we design and analyze discovery algorithms for unique column combinations. Since this is as hard as the general transversal hypergraph problem, it is an open question whether the UCCs of a database can be computed in output-polynomial time in the worst case. For the analysis, we therefore focus on instances that are structurally close to databases in practice, most notably, inputs that have small solutions. The equivalence between UCCs and hitting sets transfers the computational hardness, but also allows us to apply ideas from hypergraph theory to data profiling. We devise an discovery algorithm that runs in polynomial space on arbitrary inputs and achieves polynomial delay whenever the maximum size of any minimal UCC is bounded. Central to our approach is the extension problem for minimal hitting sets, that is, to decide for
a set of vertices whether they are contained in any minimal solution. We prove that this is yet another problem that is complete for the complexity class W[3], when parameterized by the size of the set that is to be extended. We also give several conditional lower bounds under popular hardness conjectures such as the Strong Exponential Time Hypothesis (SETH). The lower bounds suggest that the running time of our algorithm for the extension problem is close to optimal.
We further conduct an empirical analysis of our discovery algorithm on real-world databases to confirm that the hitting set perspective on data profiling has merits also in practice. We show that the resulting enumeration times undercut their theoretical worst-case bounds on practical data, and that the memory consumption of our method is much smaller than that of previous solutions. During the analysis we make two observations about the connection between databases and their corresponding hypergraphs. On the one hand, the hypergraph representations containing all relevant information are usually significantly smaller than the original inputs. On the other hand, obtaining those hypergraphs is the actual bottleneck of any practical application. The latter often takes much longer than enumerating the solutions, which is in stark contrast to the fact that the preprocessing is guaranteed to be polynomial while the enumeration may take exponential time.
To make the first observation rigorous, we introduce a maximum-entropy model for non-uniform random hypergraphs and prove that their expected number of minimal hyperedges undergoes a phase transition with respect to the total number of edges. The result also explains why larger databases may have smaller hypergraphs. Motivated by the second observation, we present a new kind of UCC discovery algorithm called Hitting Set Enumeration with Partial Information and Validation (HPIValid). It utilizes the fast enumeration times in practice in order to speed up the computation of the corresponding hypergraph. This way, we sidestep the bottleneck while maintaining the advantages of the hitting set perspective. An exhaustive empirical evaluation shows that HPIValid outperforms the current state of the art in UCC discovery. It is capable of processing databases that were previously out of reach for data profiling.
Bildverarbeitungsanwendungen stellen besondere Ansprüche an das ausführende Rechensystem. Einerseits ist eine hohe Rechenleistung erforderlich. Andererseits ist eine hohe Flexibilität von Vorteil, da die Entwicklung tendentiell ein experimenteller und interaktiver Prozess ist. Für neue Anwendungen tendieren Entwickler dazu, eine Rechenarchitektur zu wählen, die sie gut kennen, anstatt eine Architektur einzusetzen, die am besten zur Anwendung passt. Bildverarbeitungsalgorithmen sind inhärent parallel, doch herkömmliche bildverarbeitende eingebettete Systeme basieren meist auf sequentiell arbeitenden Prozessoren. Im Gegensatz zu dieser "Unstimmigkeit" können hocheffiziente Systeme aus einer gezielten Synergie aus Software- und Hardwarekomponenten aufgebaut werden. Die Konstruktion solcher System ist jedoch komplex und viele Lösungen, wie zum Beispiel grobgranulare Architekturen oder anwendungsspezifische Programmiersprachen, sind oft zu akademisch für einen Einsatz in der Wirtschaft. Die vorliegende Arbeit soll ein Beitrag dazu leisten, die Komplexität von Hardware-Software-Systemen zu reduzieren und damit die Entwicklung hochperformanter on-Chip-Systeme im Bereich Bildverarbeitung zu vereinfachen und wirtschaftlicher zu machen. Dabei wurde Wert darauf gelegt, den Aufwand für Einarbeitung, Entwicklung als auch Erweiterungen gering zu halten. Es wurde ein Entwurfsfluss konzipiert und umgesetzt, welcher es dem Softwareentwickler ermöglicht, Berechnungen durch Hardwarekomponenten zu beschleunigen und das zu Grunde liegende eingebettete System komplett zu prototypisieren. Hierbei werden komplexe Bildverarbeitungsanwendungen betrachtet, welche ein Betriebssystem erfordern, wie zum Beispiel verteilte Kamerasensornetzwerke. Die eingesetzte Software basiert auf Linux und der Bildverarbeitungsbibliothek OpenCV. Die Verteilung der Berechnungen auf Software- und Hardwarekomponenten und die daraus resultierende Ablaufplanung und Generierung der Rechenarchitektur erfolgt automatisch. Mittels einer auf der Antwortmengenprogrammierung basierten Entwurfsraumexploration ergeben sich Vorteile bei der Modellierung und Erweiterung. Die Systemsoftware wird mit OpenEmbedded/Bitbake synthetisiert und die erzeugten on-Chip-Architekturen auf FPGAs realisiert.
Thema dieser Arbeit sind echtzeitfähige 3D-Renderingverfahren, die 3D-Geometrie mit über der Standarddarstellung hinausgehenden Qualitäts- und Gestaltungsmerkmalen rendern können. Beispiele sind Verfahren zur Darstellung von Schatten, Reflexionen oder Transparenz. Mit heutigen computergraphischen Software-Basissystemen ist ihre Integration in 3D-Anwendungssysteme sehr aufwändig: Dies liegt einerseits an der technischen, algorithmischen Komplexität der Einzelverfahren, andererseits an Ressourcenkonflikten und Seiteneffekten bei der Kombination mehrerer Verfahren. Szenengraphsysteme, intendiert als computergraphische Softwareschicht zur Abstraktion von der Graphikhardware, stellen derzeit keine Mechanismen zur Nutzung dieser Renderingverfahren zur Verfügung. Ziel dieser Arbeit ist es, eine Software-Architektur für ein Szenengraphsystem zu konzipieren und umzusetzen, die echtzeitfähige 3D-Renderingverfahren als Komponenten modelliert und es damit erlaubt, diese Verfahren innerhalb des Szenengraphsystems für die Anwendungsentwicklung effektiv zu nutzen. Ein Entwickler, der ein solches Szenengraphsystem nutzt, steuert diese Komponenten durch Elemente in der Szenenbeschreibung an, die die sichtbare Wirkung eines Renderingverfahrens auf die Geometrie in der Szene angeben, aber keine Hinweise auf die algorithmische Implementierung des Verfahrens enthalten. Damit werden Renderingverfahren in 3D-Anwendungssystemen nutzbar, ohne dass ein Entwickler detaillierte Kenntnisse über sie benötigt, so dass der Aufwand für ihre Entwicklung drastisch reduziert wird. Ein besonderer Augenmerk der Arbeit liegt darauf, auf diese Weise auch verschiedene Renderingverfahren in einer Szene kombiniert einsetzen zu können. Hierzu ist eine Unterteilung der Renderingverfahren in mehrere Kategorien erforderlich, die mit Hilfe unterschiedlicher Ansätze ausgewertet werden. Dies erlaubt die Abstimmung verschiedener Komponenten für Renderingverfahren und ihrer verwendeten Ressourcen. Die Zusammenarbeit mehrerer Renderingverfahren hat dort ihre Grenzen, wo die Kombination von Renderingverfahren graphisch nicht sinnvoll ist oder fundamentale technische Beschränkungen der Verfahren eine gleichzeitige Verwendung unmöglich machen. Die in dieser Arbeit vorgestellte Software-Architektur kann diese Grenzen nicht verschieben, aber sie ermöglicht den gleichzeitigen Einsatz vieler Verfahren, bei denen eine Kombination aufgrund der hohen Komplexität der Implementierung bislang nicht erreicht wurde. Das Vermögen zur Zusammenarbeit ist dabei allerdings von der Art eines Einzelverfahrens abhängig: Verfahren zur Darstellung transparenter Geometrie beispielsweise erfordern bei der Kombination mit anderen Verfahren in der Regel vollständig neuentwickelte Renderingverfahren; entsprechende Komponenten für das Szenengraphsystem können daher nur eingeschränkt mit Komponenten für andere Renderingverfahren verwendet werden. Das in dieser Arbeit entwickelte System integriert und kombiniert Verfahren zur Darstellung von Bumpmapping, verschiedene Schatten- und Reflexionsverfahren sowie bildbasiertes CSG-Rendering. Damit stehen wesentliche Renderingverfahren in einem Szenengraphsystem erstmalig komponentenbasiert und auf einem hohen Abstraktionsniveau zur Verfügung. Das System ist trotz des zusätzlichen Verwaltungsaufwandes in der Lage, die Renderingverfahren einzeln und in Kombination grundsätzlich in Echtzeit auszuführen.
Entwicklung, Implementierung und Erprobung eines planetaren Informationssystems auf Basis von ArcGIS
(2007)
Mit der Entwicklung der modernen Raumfahrt Mitte der 60er-Jahre des zwanzigsten Jahrhunderts und der Eroberung des Weltraums brach eine neue Epoche der bis dato auf Beobachtungen mit dem Teleskop gestützten planetaren Forschung an. Während des Wettrennens um die technologische Führerschaft im All zur Zeit des Kalten Krieges war das erste Ziel die Entsendung von Satelliten zur Erdbeobachtung, denen aber schon bald Sonden zum Mond und den benachbarten Planeten folgten. Diese Missionen lieferten eine enorme Fülle von Informationen in Form von Bildern und Messergebnissen in unterschiedlichen Datenformaten. Diese galt und gilt es zu strukturieren, zu verwalten, zu aktualisieren und zu interpretieren. Für die Interpretation terrestrischer Daten werden geographische Informationssysteme (GIS) hinzugezogen, die jedoch für planetare Anwendungen aufgrund unterschiedlicher Voraussetzungen nicht ohne weiteres eingesetzt werden können. Daher wurde im Rahmen dieser Arbeit die für die Verwaltung von geographischen Daten der Erdfernerkundung kommerziell erhältliche Software ArcGIS Desktop 9.0 / 9.1 (ESRI) mit eigenen Programmen und Modulen für die Planetenforschung angepasst. Diese ermöglichen die Aufbereitung und den Import planetarer Bild- und Textinformation in die kommerzielle Software. Zusätzlich wurde eine planetare Datenbank zur Speicherung und zentralen Verwaltung der Informationen aufgebaut. Die im Rahmen dieser Arbeit entwickelten Softwarekomponenten ermöglichen die schnelle und benutzerfreundliche Aufbereitung der in der Datenbank gehaltenen Informationen und das Auslesen in Dateiformate, die für geographische Informationssysteme geeignet sind. Des Weiteren wurde eine „Werkzeugleiste“ für ArcGIS entwickelt, die das Arbeiten mit planetaren Datensätzen beträchtlich beschleunigt und vereinfacht. Sie beinhaltet auch Module zur wissenschaftlichen Interpretation der planetaren Informationen, wie beispielsweise der Berechnung der Oberflächenrauigkeit der Marsoberfläche inklusive der flächendeckenden Kalibrierung der Eingangs-Basisdaten. Exemplarisch konnte gezeigt werden, dass das Verfahren eine verbesserte Berechnung der Oberflächenrauigkeit ermöglicht, als bisher angewandte Ansätze. Zudem wurde eine auf ArcGIS basierende Prozesskette zur Berechnung von hierarchischen Flussnetzen entwickelt und erprobt. Das terrestrische Beispiel, die Analyse eines Abflusssystems auf Island, zeigte eine sehr große Übereinstimmung der errechneten Gewässernetze mit den morphologischen Gegebenheiten vor Ort. Daraus ließ sich eine hohe Genauigkeit der mit demselben Ansatz errechneten Gewässernetze auf dem Mars ableiten. Auf der Grundlage der in dieser Arbeit entwickelten Programme und Module lassen sich auch Daten zukünftiger Missionen aufbereiten und in ein solches System einbinden, um diese mit eigenen Ansätzen zu verwalten, zu aktualisieren und für neue wissenschaftliche Fragestellungen perfekt anzupassen, einzusetzen und zu präsentieren, um so neue wissenschaftliche Erkenntnisse in der Planetenforschung zu gewinnen.
Mit der vorliegenden Arbeit werden exemplarisch Chancen und Grenzen der Integration von Umwelt- und Naturschutz in Verfahren der ackerbaulichen Landnutzung aufgezeigt. Die Umsetzung von Zielen des Umwelt- und Naturschutzes in Verfahren der Landnutzung ist mit verschiedenen Schwierigkeiten verbunden. Diese liegen zum einen in der Konkretisierung der Ziele, um diese umsetzen zu können, zum anderen in vielfach unzulänglichem Wissen über den Zusammenhang zwischen unterschiedlichen Formen der Landnutzung und insbesondere den biotischen Naturschutzzielen. Zunächst wird die Problematik der Zielfestlegung und Konkretisierung erörtert. Das Umweltqualitätszielkonzept von Fürst et al. (1992) stellt einen Versuch dar, Ziele des Umwelt- und Naturschutzes zu konkretisieren. Dieses Konzept haben Heidt et al. (1997) auf einen Landschaftsausschnitt von ca. 6000 ha im Biosphärenreservat Schorfheide-Chorin im Nordosten Brandenburgs angewendet. Eine Auswahl der von Heidt et al. (1997) formulierten Umweltqualitätsziele bildet die Basis dieser Arbeit. Für die ausgewählten Umweltqualitätsziele wurden wesentliche Einflussfaktoren der Landnutzung identifiziert und ein Bewertungssystem entwickelt, mit dem die Auswirkungen von landwirtschaftlichen Anbauverfahren auf diese Umweltqualitätsziele abgebildet werden können. Die praktizierte Landnutzung von 20 Betrieben im Biosphärenreservat Schorfheide-Chorin wurde von 1994 bis 1997 hinsichtlich ihrer Auswirkungen auf die Umweltqualitätsziele analysiert. Die Analyse ergab ein sehr differenziertes Bild, das zum Teil Unterschiede in der Auswirkung auf die Umweltqualitätsziele für den Anbau einzelner Kulturen oder für bestimmte Betriebstypen zeigte. Es zeigte sich aber auch, dass es bei der Gestaltung des Anbaus einzelner Kulturarten große Unterschiede gab, die für Umweltqualitätsziele Bedeutung haben. Neben der Analyse der Landnutzung im Biosphärenreservat Schorfheide-Chorin wurde ein System entwickelt, mit dem die modellhafte Abbildung von Verfahren der Landnutzung möglich ist. Die Modellverfahren wurden in eine umfangreiche Datenbank eingebunden. Sie wurden mit Hilfe eines Fuzzy- Regelsystems hinsichtlich ihrer Auswirkungen auf die Umweltqualitätsziele bewertet. Die systematisch bewerteten Verfahren wurden in ein Betriebsmodell integriert, womit eine weitergehende Analyse der Zielbeziehungen und die Berechnung von Szenarien mit unterschiedlichen Rahmenbedingungen ermöglicht wurde. Die Analyse der Beziehung verschiedener Ziele zueinander (Zieldivergenz, Zielkonvergenz) zeigte, dass sich mit der Verfolgung vieler Umweltqualitätsziele auch positive Effekte für andere Umweltqualitätsziele ergaben. Teilweise konnte allerdings auch eine Zieldivergenz festgestellt werden, die auf mögliche Zielkonflikte hinweist. Bei der Analyse der Szenarienergebnisse zeigte sich, dass die vorgeschlagenen Veränderungen von Rahmenbedingungen vielfach eine Verschlechterung für verschiedene Umweltqualitätsziele mit sich bringen. Eine Ursache dafür liegt darin, dass bei der Definition der Szenarien die Bedeutung der Stilllegungen unterschätzt wurde.
Die Entwicklung nachhaltiger Bewirtschaftungs- und Produktionsmethoden ist eine der zentralen Fragestellungen der modernen Agrarwirtschaft. Die vorliegende Arbeit beschäftigt sich mit zwei Forschungsthemen, die das Konzept Nachhaltigkeit beinhalten. In beiden Fällen werden analytische Grundlagen für die Entwicklung entsprechender landwirtschaftlicher Arbeitsmethoden gelegt.
Das erste Thema ist an den sogenannten Präzisionsackerbau angelehnt. Bei diesem wird die Bearbeitung von Agrarflächen ortsabhängig ausgeführt. Das heißt, die Ausbringung von Saatgut, Dünger, Bewässerung usw. richtet sich nach den Eigenschaften des jeweiligen Standortes und wird nicht pauschal gleichmäßig über ein ganzes Feld verteilt. Voraussetzung hierfür ist eine genaue Kenntnis der Bodeneigenschaften. In der vorliegenden Arbeit sollten diese Parameter mittels der analytischen Technik der Laser-induzierten Breakdown Spektroskopie (LIBS), die eine Form der Elementaranalyse darstellt, bestimmt werden. Bei den hier gesuchten Bodeneigenschaften handelte es sich um die Gehalte von Nährstoffen sowie einige sekundäre Parameter wie den Humusanteil, den pH-Wert und den pflanzenverfügbaren Anteil einzelner Nährstoffe. Diese Eigenschaften wurden durch etablierte Referenzanalysen bestimmt. Darauf aufbauend wurden die Messergebnissen der LIBS-Untersuchungen durch verschiedene Methoden der sogenannten multivariaten Datenanalyse (MVA) ausgewertet. Daraus sollten Modelle zur Vorhersage der Bodenparameter in zukünftigen LIBS-Messungen erarbeitet werden. Die Ergebnisse dieser Arbeit zeigten, dass mit der Kombination von LIBS und MVA sämtliche Bodenparameter erfolgreich vorhergesagt werden konnten. Dies beinhaltete sowohl die tatsächlich messbaren Elemente als auch die sekundären Eigenschaften, welche durch die MVA mit den Elementgehalten in Zusammenhang gebracht wurden.
Das zweite Thema beschäftigt sich mit der Vermeidung von Verlusten durch Schädlingsbefall bei der Getreidelagerung. Hier sollten mittels der Ionenmobilitätsspektrometrie (IMS) Schimmelpilzkontaminationen detektiert werden. Dabei wurde nach den flüchtigen Stoffwechselprodukten der Pilze gesucht. Die durch Referenzmessungen mit Massenspektrometern identifizierten Substanzen konnten durch IMS im Gasvolumen über den Proben, dem sogenannten Headspace, nachgewiesen werden. Dabei wurde nicht nur die Anwesenheit einer Kontamination festgestellt, sondern diese auch charakterisiert. Die freigesetzten Substanzen bildeten spezifische Muster, anhand derer die Pilze identifiziert werden konnten. Hier wurden sowohl verschiedene Gattungen als auch einzelne Arten unterschieden. Die Messungen fanden auf verschiedenen Nährböden statt um den Einfluss dieser auf die Stoffwechselprodukte zu beobachten. Auch die sekundären Stoffwechselprodukte der Schimmelpilze, die Mykotoxine, konnten durch IMS detektiert werden.
Beide in dieser Arbeit vorgestellten Forschungsthemen konnten erfolgreich abgeschlossen werden. Sowohl LIBS als auch IMS erwiesen sich für den Nachweis der jeweiligen Analyten als geeignet, und der Einsatz moderner computergestützter Auswertemethoden ermöglichte die genaue Charakterisierung der gesuchten Parameter. Beide Techniken können in Form von mobilen Geräten verwendet werden und zeichnen sich durch eine schnelle und sichere Analyse aus. In Kombination mit entsprechenden Modellen der MVA sind damit alle Voraussetzungen für Vor-Ort-Untersuchungen und damit für den Einsatz in der Landwirtschaft erfüllt.
Antikörper werden in verschiedensten Bereichen, sowohl zu therapeutischen als auch zu diagnostischen und forschungsorientierten Zwecken verwendet. Vor der Verwendung des Antikörpers bedarf es der Charakterisierung seiner Eigenschaften, in Bezug auf sein Epitop und sein Bindeverhalten gegenüber dem Paratop. Gleichzeitig muss, in Abhängigkeit des Einsatzes, der Antikörper, für den gewünschten Gebrauch, validiert werden. Zu diesem Zweck wurden in der vorliegenden Arbeit Bead-basierte, multiplexe Testsysteme entworfen, ausgetestet und etabliert mit dem Ziel, eine einfache Screeningmethode zu entwickeln, um eine hohe Anzahl an Proben beziehungsweise Analyten gleichzeitig bestimmen zu können. Dafür wurden drei verschiedene Herangehensweisen etabliert.
So wurden ein phospho-PKA-Substrat Antikörper, welcher phosphorylierte Bindemotive der PKA der Form RRxpS erkennt, gleichzeitig mit einer Reihe an Peptide getestet, welche Punktmutationen im Vergleich zur Konsensussequenz enthielten, um den Einfluss einzelner Aminosäuren auf die Bindung des Antikörpers zu untersuchen. Es konnte im Multiplex gezeigt werden, dass die Unterschiede im Antikörperbindungsverhalten in Abhängigkeit der Aminosäure an verschiedenen P-Positionen detektierbar waren. Mit dem Bead-basierten Multiplexansatz konnten, durch Messungen von Konzentrationsreihen des Antikörpers, Bindungskinetiken aufgenommen und diese mit bereits etablierten Methoden verglichen werden.
Des Weiteren wurden verschiedene Antikörper, welche essenzielle Bestandteile von Bead-basierten Testsystemen darstellten, validiert. Es wurden dabei verschiedene Antikörper, welche spezifisch THC und CBD erkennen ausgetestet und anschließend ein kompetitiver Assay zur Detektion von THC und CBD in humanem Serum etabliert, und die Nachweisgrenzen bestimmt.
Ferner sollten Pferdeseren von Tieren, welche am Sommerekzem leiden, auf ihren IgE-Gehalt hin bestimmt werden. Dafür wurden relevante Proteine rekombinant hergestellt und durch Immobilisierung an Beads im Multiplex mit Serum inkubiert. Die spezifische Bindung des IgE an die Allergen sollte damit messbar gemacht werden können. Für die Gesamtvalidierung des Testsystems wurden zuvor sämtliche Einzelschritte einzeln validiert, um im Anschluss im multiplexen Screening zu vermessen.
Die Nutzung von Bead-basierten Multiplexmessungen als eine Plattformtechnologie erleichtert die Charakterisierung von Antikörpern sowie ihre Validierung für verschiedene Testsysteme.
In der molekularen Diagnostik besteht ein Bedarf an schnellen und spezifischen Testsystemen, die entweder für die Labordiagnostik oder in Point of Care-Umgebungen eingesetzt werden können. Um dieses Ziel zu erreichen, stehen die Miniaturisierung und Parallelisierung im Mittelpunkt des Forschungsinteresses. Die führende Methode im Bereich der DNA-Analytik ist derzeit die Realtime-PCR. Dieser Technologie sind hinsichtlich der Multiplexfähigkeit technologischen Hürden gesetzt, da derzeit nur eine Analyse von maximal vier Parametern parallel in einem Versuchsansatz erfolgen kann. Microarrays stellen hingegen die benötigten Voraussetzungen zur Verfügung, um als Werkzeuge für die Multiparameteranalyse in verschiedensten Anwendungsbereichen zu dienen. Ein Schwerpunkt dieser Arbeit war es, Multiplex-PCRs und diagnostische Microarrays zu entwickeln, die für analytische Fragestellungen eine schnelle und zuverlässige Multiparameteranalytik ermöglichen, um die bisherigen Einschränkungen aktueller Nachweisverfahren zu vermeiden. Als Anwendungen wurden zum einen ein Nachweissystem für acht relevante Geflügelpathogene zur Überwachung in der Geflügelzucht, zum anderen ein Nachweissystem zur Identifikation potentiell allergener Lebensmittelinhaltstoffe entwickelt. Neben der Entwicklung geeigneter PCR und Multiplex-PCR-Verfahren sowie spezifischer Microarrays für die Detektion der gesuchten Zielsequenzen stand auch die weiterführende Integration von DNA-Amplifikation und Microarray-Technologie im Fokus dieser Arbeit. Die OnChip-Amplifikation stellt eine Möglichkeit dar, um DNA-Analytik und Detektion in einem Reaktionsschritt zu integrieren. Entsprechend wurden die in der Arbeit entwickelten PCR- und Multiplex-PCR-Verfahren zum Nachweis potentieller allergener Lebensmittelinhaltsstoffe für die OnChip-Amplifikation adaptiert und Reaktionsbedingungen getestet, die eine Multiparameteranalyse auf dem Chip ermöglichen. Die entwickelten OnChip-PCR-Verfahren zeigten eine hohe Spezifität sowohl in Single- als auch in der Multiplex-OnChip-PCR. Eine Sensitivität von 10 Kopien bzw. <10ppm konnte in Single-OnChip-PCRs für den Nachweis allergener Lebensmittelinhaltsstoffe gezeigt werden. In Multiplex-OnChip-PCRs konnten 10-100ppm allergene Verunreinigungen spezifisch in unterschiedlichen Lebensmitteln nachgewiesen werden. Ein weiterer Schritt in Richtung einer möglichen Verwendung im Point of Care-Bereich stellt der Einsatz eines isothermalen Amplifikationsverfahrens dar. Vorteil eines solchen Verfahrens ist die Möglichkeit, auf das ansonsten benötigte Thermocycling zu verzichten. Dies vereinfacht eine Integration der OnChip-Amplifikation in mobile Analysegeräte oder Lab on Chip-Systeme und qualifiziert das Verfahren für den Einsatz in Point of Care-Umgebungen. In dieser Arbeit wurde eine noch junge isothermale Amplifikationsmethode, die helikase-abhängige Amplifikation (HDA), hinsichtlich ihrer Eignung für die Integration auf einem Microarray getestet. Hierfür konnte die bislang erste OnChip-HDA für Einzel- und Duplex-Nachweise von Pathogenen entwickelt werden.
Die intrazelluläre Markierung mit geeigneten Reagenzien ermöglicht ihre bildgebende Darstellung in lebenden Organismen. Dieses Verfahren (auch „Zell-Tracking“ genannt) wird in der Grundlagenforschung zur Entwicklung zellulärer Therapien, für die Erforschung pathologischer Prozesse, wie der Metastasierung, sowie für Therapiekontrollen eingesetzt. Besondere Bedeutung haben in den letzten Jahren zelluläre Therapien mit Stammzellen erlangt, da sie großes Potential bei der Regeneration von Geweben bei Krankheiten wie Morbus Parkinson oder Typ-1-Diabetes versprechen. Für die Entwicklung einer zellulären Therapie sind Informationen über den Verbleib der applizierten Zellen in vivo (Homing-Potential), über ihre Zellphysiologie sowie über die Entstehung möglicher Entzündungen notwendig. Das Ziel der vorliegenden Arbeit war daher die Synthese von Markierungsreagenzien, die nicht nur eine effiziente Zellmarkierung ermöglichen, sondern einen synergistischen Effekt hinsichtlich des modalitätsübergreifenden Einsatzes in den bildgebenden Verfahren MRT und Laser-Ablation(LA)-ICP-MS erlauben. Die MRT-Bildgebung ermöglicht die nicht invasive Nachverfolgung markierter Zellen in vivo und die LA-ICP-MS die anschließende ex vivo Analytik zur Darstellung der Elementverteilung (Bioimaging) in einer Biopsieprobe oder in einem Gewebeschnitt. Für diese Zwecke wurden zwei verschiedene Markierungsreagenzien mit dem kontrastgebenden Element Gadolinium synthetisiert. Gadolinium eignet sich aufgrund seines hohen magnetischen Moments hervorragend für die MRT-Bildgebung und da es in Biomolekülen nicht natürlich vorkommt, konnten die Reagenzien gleichermaßen für die Zellmarkierung und das Bioimaging mit der LA-ICP-MS untersucht werden. Für die Synthese eines makromolekularen Reagenzes wurde das kommerziell verfügbare Dendrimer G5-PAMAM über bifunktionelle Linker mit dem Chelator DOTA funktionalisiert, um anschließend Gadolinium zu komplexieren. Ein zweites, nanopartikuläres Reagenz wurde über eine Solvothermal-Synthese erhalten, bei der Ln:GdVO4-Nanokristalle mit einer funktionellen Polyacrylsäure(PAA)-Hülle dargestellt wurden. Die Dotierung der Ln:GdVO4-PAA Nanokristalle mit verschiedenen Lanthanoiden (Ln=Eu, Tb) zeigte ihre prinzipielle Multiplexfähigkeit in der LA-ICP-MS. Beide Markierungsreagenzien zeichneten sich durch gute Bioverträglichkeiten und r1-Relaxivitäten aus, was zudem ihr Potential für Anwendungen als präklinische „blood-pool“ MRT-Kontrastmittel belegte. Die Untersuchung der Zellmarkierung erfolgte anhand einer Tumorzelllinie und einer Stammzelllinie, wobei beide Zellarten erfolgreich intrazellulär mit beiden Reagenzien markiert wurden. Nach der Zellmarkierung veranschaulichte die in vitro MRT-Bildgebung von Zell-Phantomen eine deutlichere Kontrastverstärkung der Zellen nach der Markierung mit den Nanokristallen im Vergleich zum kommerziellen Kontrastmittel Magnevist®. Die hohe Effizienz der Zellmarkierung mit den Nanokristallen und die damit verbundenen hohen Signalintensitäten in einer einzelnen Zelle erlaubten beim Bioimaging mit der LA-ICP-MS, Messungen bis zu einer Auflösung von 4 µm Laser Spot Size. Nach der Zellmarkierung mit den DOTA(Gd3+)-funktionalisierten G5-PAMAM Dendrimeren waren hingegen Aufnahmen mit der LA-ICP-MS nur bis zu einer Auflösung von 12 µm Laser Spot Size möglich. Insgesamt waren die Ln:GdVO4-PAA Nanokristalle mit größerer Ausbeute und kostengünstiger herstellbar als die DOTA(Gd3+)-funktionalisierten G5-PAMAM Dendrimere und zeigten zudem eine effizientere Zellmarkierung. Die Ln:GdVO4-PAA Nanokristalle erscheinen somit für das Zell-Tracking als besonders vielversprechend. Darauf aufbauend wurden die Nanokristalle zur Etablierung der Antikörper-Konjugation ausgewählt, was sie für die molekulare in vivo Bildgebung sowie für die Immuno-Bildgebung von Gewebeschnitten oder Biopsie-Proben mit der LA-ICP-MS anwendbar macht.
Die Landschaften Mitteleuropas sind das Resultat einer langwierigen Geschichte menschlicher Landnutzung mit ihren unterschiedlichen, z.T. konkurrierenden Nutzungsansprüchen. Durch eine überwiegend intensive Beanspruchung haben die direkten und indirekten Auswirkungen der Landnutzung in vielen Fällen zu Umweltproblemen geführt. Die Disziplin der Landschaftsökologie hat es sich zur Aufgabe gemacht, Konzepte für eine nachhaltige Nutzung der Landschaft zu entwickeln. Eine wichtige Fragestellung stellt dabei die Abschätzung der möglichen Folgen von Landnutzungsänderungen dar. Für die Analyse der relevanten Prozesse in der Landschaft werden häufig mathematische Modelle eingesetzt, welche es erlauben die Landschaft unter aktuellen Verhältnissen oder hinsichtlich veränderter Rahmenbedingungen zu untersuchen. Die hypothetische Änderung der Landnutzung, die als Landnutzungsszenario bezeichnet wird, verkörpert eine wesentliche Modifikation der Rahmenbedingungen, weil Landnutzung maßgeblich Einfluss auf die natürlichen Prozesse der Landschaft nimmt. Während die Antriebskräfte einer solchen Änderung überwiegend von sozio-ökonomischen und politischen Entscheidungen gesteuert werden, orientiert sich die exakte Verortung der Landnutzungsänderungen an den naturräumlichen Bedingungen und folgt z.T. erkennbaren Regeln. Anhand dieser Vorgaben ist es möglich, räumlich explizite Landnutzungsszenarien zu entwickeln, die als Eingangsdaten für die Modellierung verschiedener landschaftsökologischer Fragestellungen wie z.B. für die Untersuchung des Einflusses der Landnutzung auf den Wasserhaushalt, die Erosionsgefahr oder die Habitatqualität dienen können. Im Rahmen dieser Dissertation wurde das rasterbasierte deterministische Allokationsmodell luck (Land Use Change Scenario Kit) für die explizite Verortung der Landnutzungsänderungen entwickelt. Es basiert auf den in der Landschaftsökologie üblichen räumlichen Daten wie Landnutzung, Boden sowie Topographie und richtet sich bei der Szenarienableitung nach den Leitbildern der Landschaftsplanung. Das Modell fußt auf der Hypothese, dass das Landnutzungsmuster als Funktion seiner landschaftsökologischen Faktoren beschrieben werden kann. Das Veränderungspotenzial einer Landnutzungseinheit resultiert im Modell aus einer Kombination der Bewertung der relativen Eignung des Standortes für die jeweilige Landnutzung und der Berücksichtigung von Standorteigenschaften der umliegenden Nachbarn. Die Durchführung der Landnutzungsänderung im Modell ist iterativ angelegt, um den graduellen Prozess des Landschaftswandels nachvollziehen zu können. Als Fallbeispiel für die Anwendung solcher räumlich expliziten Landnutzungsszenarien dient die Fragestellung, inwieweit Landnutzungsänderungen die Hochwasserentstehung beeinflussen. Um den Einfluss auf die Hochwasserentstehung für jede der Landnutzungskategorien – bebaute, landwirtschaftlich genutzte und naturnahe Flächen – abschätzen zu können, wird im Landnutzungsmodell luck exemplarisch für jede Kategorie ein Teilmodell für die Veränderung von Landnutzung angeboten: 1) Ausdehnung der Siedlungsfläche: Dieses Teilmodell fußt auf der Annahme, dass sich Siedlungen nur in direkter Nachbarschaft bereits bestehender Bebauung und bevorzugt entlang von Entwicklungsachsen ausbreiten. Steile Hangneigungen stellen für potenzielle Standorte ein Hemmnis bei der Ausbreitung dar. 2) Stilllegung von Grenzertragsackerflächen: Gemäß der Hypothese, dass sich die Stilllegung von Ackerflächen an der potenziellen Ertragsleistung der Standorte orientiert, werden in diesem Teilmodell alle Ackerstandorte dahingehend bewertet und die Flächen mit der geringsten Leistungsfähigkeit stillgelegt. Bei homogenen Gebietseigenschaften werden die Stilllegungsflächen zufällig auf die Ackerfläche verteilt. 3) Etablierung von Schutzgebieten in Ufer- und Auenbereichen: Ausgehend von der These, dass sich entlang von Flüssen sensible Flächen befinden, deren Schutz positive Folgen für das Leistungsvermögen der Landschaft haben kann, werden in diesem Teilmodell schützenswerte Ufer- und Auenbereiche auf derzeit landwirtschaftlich genutzten Flächen ausgewiesen. Die Größe der Schutzgebietsfläche orientiert sich an der Morphologie der umgebenden Landschaft. Die drei Teilmodelle wurden hinsichtlich der implizierten Hypothesen mit vielen unterschiedlichen Ansätzen validiert. Das Resultat dieser intensiven Analyse zeigt für jedes Teilmodell eine zufriedenstellende Tauglichkeit. Die Modellierung der Landnutzungsänderungen wurden in drei mesoskaligen Flusseinzugsgebieten mit einer Fläche zwischen 100 und 500 km² durchgeführt, die sich markant in ihrer Landnutzung unterscheiden. Besonderer Wert wurde bei der Gebietsauswahl darauf gelegt, dass eines der Gebiete intensiv landwirtschaftlich genutzt wird, eines dicht besiedelt und eines vorwiegend bewaldet ist. Im Hinblick auf ihre Relevanz für die vorliegende Fragestellung wurden aus bestehenden Landnutzungstrends die Szenarien für (1) die prognostizierte Siedlungsfläche für das Jahr 2010, (2) die möglichen Konsequenzen des EU-weiten Beschlusses der Agenda 2000 und (3) die Novelle des Bundesnaturschutzgesetzes aus dem Jahr 2001 abgeleitet. Jedes Szenario wurde mit Hilfe des Modells auf die drei Untersuchungsgebiete angewendet. Dabei wurden für die Siedlungsausdehnung in allen drei Gebieten realistische Landnutzungsmuster generiert. Einschränkungen ergeben sich bei der Suche nach Grenzertragsstilllegungsflächen. Hier hat unter homogenen Gebietseigenschaften die zufällige Verteilung von Flächen für die Stilllegung zu einem unrealistischen Ergebnis geführt. Die Güte der Schutzgebietsausweisung ist maßgeblich an die aktuelle Landnutzung der Aue und die Morphologie des Geländes gebunden. Die besten Ergebnisse werden erzielt, wenn die Flächen in den Ufer- und Auenbereichen mehrheitlich unter derzeitiger Ackernutzung stehen und der Flusslauf sich in das Relief eingetieft hat. Exemplarisch werden für jeden Landnutzungstrend die hydrologischen Auswirkungen anhand eines historischen Hochwassers beschrieben, aus denen jedoch keine pauschale Aussage zum Einfluss der Landnutzung abgeleitet werden kann. Die Studie demonstriert die Bedeutung des Landnutzungsmusters für die natürlichen Prozesse in der Landschaft und unterstreicht die Notwendigkeit einer räumlich expliziten Modellierung für landschaftsökologische Fragestellungen in der Mesoskala.
In den letzten Jahrzehnten ist die Nachfrage nach kostengünstigen und flächendeckenden Kartierungsmöglichkeiten im Hinblick auf eine ertragssteigernde und umweltfreundlichere Bewirtschaftung von landwirtschaftlichen Nutzflächen stark gestiegen. Hierfür eignen sich spektroskopische Methoden wie die Röntgenfluoreszenzanalyse (RFA), Raman- und Gammaspektroskopie sowie die laserinduzierte Plasmaspektroskopie (LIBS). In Abhängigkeit von der Funktionsweise der jeweiligen Methoden werden Informationen zu verschiedensten Bodeneigenschaften wie Nährelementgehalt, Textur und pH-Wert erhalten.
Ziel dieser Arbeit ist die Entwicklung eines Online-LIBS-Verfahrens zur Nährelementbestimmmung und Kartierung von Ackerflächen. Die LIBS ist eine schnelle und simultane Multielementanalyse bei der durch das Fokussieren eines hochenergetischen Laserpulses Probenmaterial von der Probenoberfläche ablatiert wird und in ein Plasma überführt wird. Beim Abkühlen des Plasmas wird Strahlung emittiert, welche Rückschlüsse über die elementare Zusammensetzung der Probe gibt. Diese Arbeit ist im Teilprojekt I4S (Intelligenz für Böden) im Forschungsprogramm BonaRes (Boden als nachhaltige Ressource für die Bioökonomie) des Bundesministerium für Bildung und Forschung (BMBF) entstanden. Es wurden insgesamt 651 Bodenproben von verschiedenen Test-Agrarflächen unterschiedlichster Standorte Deutschlands gemessen, ausgewertet und zu Validierungszwecken mit entsprechender Referenzanalytik wie die Optische Emissionsspektroskopie mittels induktiv gekoppeltem Plasma (ICP-OES) und die wellenlängendispersive Röntgenfluoreszenzanalyse (WDRFA) charakterisiert.
Für die Quantifizierung wurden zunächst die Messparameter des LIBS-Systems auf die Bodenmatrix optimiert und für die Elemente geeignete Linien ausgewählt sowie deren Nachweisgrenzen bestimmt. Es hat sich gezeigt, dass eine absolute Quantifizierung basierend auf einem univariaten Ansatz aufgrund der starken Matrixeffekte und der schlechten Reproduzierbarkeit des Plasmas nur eingeschränkt möglich ist. Bei Verwendung eines multivariaten Ansatz wie der Partial Least Squares Regression (PLSR) für die Kalibrierung konnten für die Nährelemente im Vergleich zur univariaten Variante Analyseergebnisse mit höherer Güte und geringeren Messunsicherheiten ermittelt werden. Die Untersuchungen haben gezeigt, dass das multivariate Modell weiter verbessert werden kann, indem mit einer Vielzahl von gut analysierten Böden verschiedener Standorte, Bodenarten und einem breiten Gehaltsbereich kalibriert wird. Mithilfe der Hauptkomponentenanalyse (PCA) wurde eine Klassifizierung der Böden nach der Textur realisiert. Weiterhin wurde auch eine Kalibrierung mit losem Bodenmaterial erstellt. Trotz der Signalabnahme konnten für die verschiedenen Nährelemente Kalibriergeraden mit ausreichender, analytischer Güte erstellt werden.
Für den Einsatz auf dem Acker wurde außerdem der Einfluss von Korngröße und Feuchtigkeit auf das LIBS-Signal untersucht. Die unterschiedlichen Korngrößen haben nur einen geringen Einfluss auf das LIBS-Signal und das Kalibriermodell lässt sich durch entsprechende Proben leicht anpassen. Dagegen ist der Einfluss der Feuchtigkeit deutlich stärker und hängt stark von der Bodenart ab, sodass für jede Bodenart ein separates Kalibriermodell für verschiedene Feuchtigkeitsgehalte erstellt werden muss. Mithilfe der PCA kann der Feuchtigkeitsgehalt im Boden grob abgeschätzt werden und die entsprechende Kalibrierung ausgewählt werden.
Diese Arbeit liefert essentielle Informationen für eine Echtzeit-Analyse von Nährelementen auf dem Acker mittels LIBS und leistet einen wichtigen Beitrag zu einer fortschrittlichen und zukunftsfähigen Nutzung von Ackerflächen.
Das Geschlechtsrollenselbstkonzept, das sich im Laufe der Sozialisation in Auseinandersetzung mit den vorherrschenden Vorstellungen der umgebenden Kultur entwickelt, steht in Beziehung zu Affekten, Kognitionen und Verhaltensweisen in einer Vielzahl von Bereichen. Bisherige GSK-Instrumente messen jedoch nahezu ausschließlich den positiven Aspekt von Maskulinität und Femininität. Die Definition des allgemeinen Selbstkonzepts gibt diese Limitierung auf positive Valenz nicht vor, und aus gesundheitspsychologischer Sicht sowie der Gruppenforschung ist die Bedeutung negativer Eigenschaften zur Selbstbeschreibung bekannt. Vor diesem Hintergrund wurden sieben aufeinander aufbauende Studien durchgeführt mit dem Ziel ein neues Instrument zu entwickeln, deren Items zum einen kulturell aktuellen Eigenschaften zur Selbstbeschreibung entsprechen und zum anderen die Valenzunterschiede dieser Merkmalsbeschreibungen berücksichtigen. Nach einer kritischen empirischen Überprüfung des deutschen BSRI, um Schwächen der Items ausschließlich positiver Valenz aufzudecken, wurde eine neue Skala entwickelt, die von Beginn an auch negative Selbstbeschreibungen berücksichtigte um der Komplexität des geschlechtlichen Selbst gerecht zu werden. Aufgrund der Einschätzungen zur Typizität und sozialen Erwünschtheit sowie mit ersten Resultaten aus der Selbstbeschreibung wurde die Auswahl der Items für die Teilskalen vorgenommen. In zwei weiteren Studien wurden schließlich die vier neu entwickelten Teilskalen des neuen GSK-Inventars einer Validierung unterzogen. Jeder der Teilskalen wurden theoriegeleitet spezifische Konstrukte zugeordnet und es konnte nachgewiesen werden, dass alle Teilskalen ihren eigenen Beitrag zur Vorhersage psychologischer Konzepte leisten können. So standen beispielsweise die negativen maskulinen Eigenschaften in engerer Beziehung zu Aggressivität und machtbezogenen Werten als die positiven Aspekte der Maskulinität. Als Ergebnis dieser Entwicklung stehen am Ende vier kurze, unabhängige, reliable Teilskalen, die positive als auch negative Aspekte von Maskulinität und Femininität abbilden und mittels sehr unterschiedlicher psychologischer Erlebens- und Verhaltenskonstrukte validiert wurden, die die Unabhängigkeit der Skalen belegen und diese für einen Einsatz in der Forschung empfehlen. Die Einführung einer individuellen Wertkomponente im Zuge der Selbstbeschreibung, angelehnt an das bekannte Erwartungs-mal-Wert Modell der Motivations- und Einstellungsforschung, und die daraus mögliche multiplikative Verknüpfung von Selbsteinschätzung und persönlicher Wichtigkeit der Eigenschaften konnten den Aufklärungswert in Bezug auf unterschiedliche Validierungskonstrukte dagegen nicht verbessern und wurden daher nicht ins das Instrument integriert.
Für den Einsatz in Autobatterien gibt es besondere Anforderungen an den Elektrolyten im Bereich der Energie- und Leistungsdichten, um beispielsweise thermische Verluste gering zu halten. Hochleitfähige Elektrolyte mit Leitfähigkeiten im Millisiemensbereich sind hier ebenso notwendig wie auch sichere, d.h. möglichst nicht brennbare und einen niedrigen Dampfdruck besitzende Materialien. Um diese Vorgaben zu erreichen, ist es notwendig, einen polymeren Separator zu entwickeln, welcher auf brennbare organische Lösungsmittel verzichtet und damit eine drastische Steigerung der Sicherheit gewährleistet. Gleichzeitig müssen hierbei die Leistungsvorgaben bezüglich der Leitfähigkeit erfüllt werden. Zu diesem Zweck wurde ein Konzept basierend auf der Kombination von einer polymeren sauerstoffreichen Matrix und einer ionischen Flüssigkeit entwickelt und verifiziert. Dabei wurden folgende Erkenntnisse gewonnen: 1. Es wurden neuartige diacrylierte sauerstoffreiche Matrixkomponenten mit vielen Carbonylfunktionen, für eine gute Lithiumleitfähigkeit, synthetisiert. 2. Es wurden mehrere neue ionische Flüssigkeiten sowohl auf Imidazolbasis als auch auf Ammoniumbasis synthetisiert und charakterisiert. 3. Die Einflüsse der Kationenstruktur und der Einfluss der Gegenionen im Bezug auf Schmelzpunkte und Leitfähigkeiten wurden untersucht. 4. Aus den entwickelten Materialien wurden Blendsysteme hergestellt und mittels Impedanzspektrometrie untersucht: Leitfähigkeiten von 10-4S/cm bei Raumtemperatur sind realisierbar. 5. Die Blendsysteme wurden auf ihre thermische Stabilität hin untersucht: Stabilitäten bis 250°C sind erreichbar. Dabei wird keine kristalline Struktur beobachtet.
Kosmologie beschreibt die Entwicklung des Universums als Ganzes. Kosmologische Entdeckungen in Theorie und Praxis haben daher unser modernes wissenschaftliches Weltbild entscheidend geprägt. Die Vermittlung eines modernen Weltbildes durch Unterricht ist ein häufiger Wunsch in der naturwissenschaftlichen Bildungsdiskussion. Dennoch existieren weiterhin Forschungs- und Entwicklungsbedarfe. Kosmologische Themen finden sich häufig in den Medien und sind gleichzeitig weiter vom Alltag entfernt, so dass sich hier besonders leicht wissenschaftlich inkorrekte Vorstellungen entwickeln können, die zu Problemen im Unterricht führen können.
Das Ziel dieser wissenschaftlichen Arbeit ist es, zu diesem Forschungsgebiet beizutragen und die Voraussetzungen hinsichtlich vorhandener Vorkenntnisse und Präkonzepte in Kosmologie, mit denen Schülerinnen und Schüler in den Unterricht kommen, zu untersuchen und anschließend mit denen anderer Länder zu vergleichen. Dies erfolgt anhand einer qualitativen Inhaltsanalyse eines offenen Fragebogens. Auf dieser Grundlage wird schließlich ein Multiple-Choice Fragebogen entwickelt, angewendet und evaluiert.
Die Ergebnisse zeigen große Wissenslücken im Bereich der Kosmologie auf und geben erste Hinweise auf vorhandene Unterschiede zwischen den Ländern. Es existieren ebenfalls einige teils weit verbreitete wissenschaftlich inkorrekte Vorstellungen wie beispielsweise die Assoziation des Urknalls mit einer Explosion, der Urknall verursacht durch eine Kollision von Teilchen oder größeren Objekten, oder die Vorstellung der Ausdehnung des Universums als neue Entdeckungen und/oder Wissen. Des Weiteren gab nur etwa jeder Fünfte das korrekte Alter des Universums oder die Ausdehnung des Universums als einen der drei Belege der Urknalltheorie an, während fast 40% keinen einzigen Beleg nennen konnten. Für den geschlossenen Fragebogen konnten gute Hinweise für verschiedene Validitätsaspekte herausgearbeitet werden und es existieren erste Hinweise darauf, dass der Fragebogen Wissenszuwachs messen kann und damit wahrscheinlich zur Untersuchung der Wirksamkeit von Lerneinheiten eingesetzt werden kann. Auch ein entsprechendes Modell zur Verständnisentwicklung der Ausdehnung des Universums zeigte sich vielversprechend.
Diese Arbeit liefert insgesamt einen Forschungsbeitrag zum Schülervorwissen und Vorstellungen in der Kosmologie und deren Large Scale Assessment. Dies eröffnet die Möglichkeit zukünftiger Forschungen im Bereich von Gruppenvergleichen insbesondere hinsichtlich objektiver Ländervergleiche sowie der Untersuchungen der Wirksamkeit von einzelnen Lerneinheiten als auch Vergleiche verschiedener Lerneinheiten untereinander.
Die vorliegende Untersuchung analysierte den direkten Zusammenhang eines berufsbezogenen Angebots Sozialer Gruppenarbeit mit dem Ergebnis beruflicher Wiedereingliederung bei Rehabilitandinnen und Rehabilitanden in besonderen beruflichen Problemlagen. Sie wurde von der Deutschen Rentenversicherung Bund als Forschungsprojekt vom 01.01.2013 bis 31.12. 2015 gefördert und an der Professur für Rehabilitationswissenschaften der Universität Potsdam realisiert.
Die Forschungsfrage lautete: Kann eine intensive sozialarbeiterische Gruppenintervention im Rahmen der stationären medizinischen Rehabilitation soweit auf die Stärkung sozialer Kompetenzen und die Soziale Unterstützung von Rehabilitandinnen und Rehabilitanden einwirken, dass sich dadurch langfristige Verbesserungen hinsichtlich der beruflichen Wiedereingliederung im Vergleich zur konventionellen Behandlung ergeben?
Die Studie gliederte sich in eine qualitative und eine quantitative Erhebung mit einer zwischenliegenden Intervention. Eingeschlossen waren 352 Patientinnen und Patienten im Alter zwischen 18 und 65 Jahren mit kardiovaskulären Diagnosen, deren Krankheitsbilder häufig von komplexen Problemlagen begleitet sind, verbunden mit einer schlechten sozialmedizinischen Prognose.
Die Evaluation der Gruppenintervention erfolgte in einem clusterrandomisierten kontrollierten Studiendesign, um einen empirischen Nachweis darüber zu erbringen, inwieweit die Intervention gegenüber der regulären sozialarbeiterischen Behandlung höhere Effekte erzielen kann. Die Interventionsgruppen nahmen am Gruppenprogramm teil, die Kontrollgruppen erhielten die reguläre sozialarbeiterische Behandlung.
Im Ergebnis konnte mit dieser Stichprobe kein Nachweis zur Verbesserung der beruflichen Wiedereingliederung, der gesundheitsbezogenen Arbeitsfähigkeit, der Lebensqualität sowie der Sozialen Unterstützung durch die Teilnahme am sozialarbeiterischen Gruppenprogramm erbracht werden. Die Return-To-Work-Rate betrug 43,7 %, ein Viertel der Untersuchungsgruppe befand sich nach einem Jahr in Arbeitslosigkeit. Die durchgeführte Gruppenintervention ist dem konventionellen Setting Sozialer Arbeit als gleichwertig anzusehen.
Schlussfolgernd wurde auf eine sozialarbeiterische Unterstützung der beruflichen Wiedereingliederung über einen längeren Zeitraum nach einer kardiovaskulären Erkrankung verwiesen, insbesondere durch wohnortnahe Angebote zu einem späteren Zeitpunkt bei stabilerer Gesundheit. Aus den Erhebungen ließen sich mögliche Erfolge bei engerer Kooperation zwischen dem Fachbereich der Sozialen Arbeit und der Psychologie ableiten. Ebenfalls gab es Hinweise auf die einflussreiche Rolle der Angehörigen, die durch Einbindung in die Soziale Beratung unterstützend auf den Wiedereingliederungsprozess wirken könnten. Die Passgenauigkeit der untersuchten sozialarbeiterischen Gruppeninterventionen ist durch eine gezielte Soziale Diagnostik zu verbessern.
Die Praktische Fahrerlaubnisprüfung dient der Erfassung und Beurteilung der Fahrkompe-tenz von Fahrerlaubnisbewerbern. Die aus dieser Prüfung gewonnenen Rückschlüsse auf das Niveau der Fahrkompetenz sollen insbesondere auch der Weiterentwicklung des Bewerbers dienen. Bisher erhalten Bewerber nur bei nicht bestandener Praktischer Fahrerlaubnisprü-fung eine Auflistung der wichtigsten Fehler, die zum Nichtbestehen geführt haben. Für ein zielgerichtetes Weiterlernen ist es aber notwendig, dass die Ergebnisse der Leistungserfas-sung und der Leistungsbewertung gemäß prüfungsdidaktischer Grundsätze pädagogisch an-spruchsvoll an alle Fahranfänger (unabhängig vom Prüfungsergebnis) zurückgemeldet wer-den.
Das Ziel der vorliegenden Arbeit besteht darin, die Gestaltungsgrundlagen und einen Umset-zungsvorschlag für ein kompetenzbezogenes und lernförderliches Rückmeldesystem für die Praktische Fahrerlaubnisprüfung zu erarbeiten. Dieses Rückmeldesystem soll in der Praxis erprobt werden. Darüber hinaus sollen anhand einer Bewerberbefragung zur Nutzerzufrie-denheit Erkenntnisse für die Weiterentwicklung gewonnen werden. Der Entwicklungs- und Erprobungsprozess des optimierten Rückmeldesystems lässt sich in drei Projektphasen auf-teilen:
1. Im Zuge der Optimierungsarbeiten zur Praktischen Fahrerlaubnisprüfung wurde in der ersten Projektphase ein neues Rückmeldesystem erarbeitet, das aus einem kompetenz-bezogenen mündlichen Auswertungsgespräch und einer ergänzenden schriftlichen Rückmeldung einschließlich weiterführender Lernhinweise für alle Bewerber besteht. Dieses Rückmeldesystem soll einerseits die Fahranfänger dabei unterstützen, die Leis-tungsbewertung inhaltlich besser zu verstehen sowie ein zielgerichtetes Weiterlernen ermöglichen. Andererseits soll es die Bewerber dazu motivieren, die festgestellten Kompetenzdefizite weiter zu bearbeiten, und dadurch Lernzuwachs fördern.
2. Das Rückmeldesystem wurde in der zweiten Projektphase in verschiedenen Modell-
regionen Deutschlands anhand von ca. 9.000 realen Praktischen Fahrerlaubnisprüfun-gen erprobt. Die Fahrerlaubnisbewerber, die in den Modellregionen an einer optimier-ten Praktischen Fahrerlaubnisprüfung teilgenommen und somit eine schriftliche Rückmeldung gemäß der optimierten Vorgaben bzw. einen individuellen Zugangscode zum Downloadbereich erhalten haben, wurden zu einer Befragung eingeladen. Dabei wurden vor allem Aspekte der Akzeptanz und der Lernwirksamkeit aus Sicht der Be-werber erfasst. Ziel war es, die Qualität der verkehrspädagogischen Gestaltung des Rückmeldesystems und seinen Nutzen zu untersuchen, um die erprobte Rückmeldung weiterzuentwickeln. Für die Bewerberbefragung wurde eine Onlinebefragung mit ei-nem standardisierten Fragebogen durchgeführt.
3. Die Erprobungs- und Befragungsergebnisse dienten in der dritten Projektphase der Ableitung von Schlussfolgerungen für die Weiterentwicklung des Rückmeldesystems. Die vorliegenden Ergebnisse der Felderprobung deuten darauf hin, dass die Bereitstel-lung einer schriftlichen, ausführlichen Rückmeldung zu den Prüfungsleistungen der Praktischen Fahrerlaubnisprüfungen insgesamt als nützlich und gewinnbringend ange-sehen wird. Allerdings wurde auch deutlich, dass bezüglich der Umsetzung noch Op-timierungspotenzial besteht. Im Anschluss an die Erprobung wurde die schriftliche Rückmeldung daher – ausgehend von den Nutzererfahrungen während der Felderpro-bung – umfassend überarbeitet und eine revidierte Version vorgelegt.
Als Ergebnis der Arbeit liegt ein in mehreren Schritten entwickeltes, empirisch fundiertes und erprobtes Rückmeldesystem vor, das eine differenzierte Kompetenzrückmeldung er-möglicht. Die umfassende Rückmeldung bietet künftig einerseits eine verbesserte Ausgangs-lage für eine ggf. anschließende Wiederholungsprüfung und andererseits ist es dem Bewer-ber anhand der aufgezeigten Stärken und Schwächen auch nach einer bestandenen Prüfung möglich, diese Rückmeldung für das weitere Lernen zu nutzen.
Auf der Grundlage psycholinguistischer, deutsch-didaktischer und linguistischer Forschungsergebnisse wurde ein Lesetraining auf Silbenbasis entwickelt, in dem Kindern mit Leseschwierigkeiten explizit Strategien zur visuellen Gliederung von Wörtern in größere funktionale Einheiten (Silben, einzelne Wörter (bei Zusammensetzungen), Präfixe) vermittelt werden. Es wird davon ausgegangen, dass Kinder mit Leseschwierigkeiten Wörter in zu kleinen linguistischen Einheiten erlesen. Das Training basiert linguistisch auf der Schreibsilbe als funktionaler Einheit beim Lesen. Basis des Lesetrainings ist ein von Scheerer-Neumann (1981) durchgeführtes Training zur Verbesserung der Lesegenauigkeit von Grundschulkindern. Die empirische Überprüfung des Lesetrainings hatte zum einen das Ziel, die Wirksamkeit des Trainingsprogramms als solches zu überprüfen und zum anderen, ob das Training zu einer deutlich verbesserten Lesegeschwindigkeit und -genauigkeit bei Grundschulkindern der 3. und 4. Klassen führt. Das Training wurde von der Autorin ohne den Einsatz von Hilfskräften mit einer relativ kleinen Zahl von Kindern (N=11) durchgeführt, um so intensiv auf die Bedürfnisse der einzelnen Kinder eingehen und gegebenenfalls flexibel reagieren zu können. Aus organisatorischen und ethischen Gründen wurde auf eine Kontrollgruppe verzichtet. Die Wirksamkeit des Trainings wurde als Prätest-Training-Posttest-Follow-up Test-Design überprüft. Das Training umfasst 18 Einheiten (je 45 Minuten) und fand zweimal wöchentlich statt. Trainingsgruppen bestanden aus einer Dreiergruppe und einer Zweiergruppe; die anderen sechs Kinder wurden einzeln trainiert. Der Posttest nach Abschluss des Trainings zeigte deutliche Verbesserungen der Lesegeschwindigkeit und -genauigkeit, die zum Teil auch signifikant waren. Der Follow-up Test drei Monate nach Ende des Trainings zeigte weitere Verbesserungen, die ebenfalls zum Teil signifikant waren. Die Befunde sprechen dafür, dass das Trainingsprogramm geeignet ist, die Lesefähigkeit von leseschwachen Grundschulkindern der dritten und vierten Klasse zu verbessern. Die Teilnehmerzahl ist allerdings relativ gering, so dass die Ergebnisse nicht ohne weiteres auf die allgemeine Population von Kindern mit Leseschwierigkeiten übertragen werden können. Eine erneute Durchführung des Trainingsprogramms mit einer größeren Stichprobe und einer parallelisierten Kontrollgruppe, bei der die Kinder der Experimentalgruppe in größeren Gruppen trainiert werden, erscheint deshalb sinnvoll.
In dieser Arbeit steht die Entwicklung einer Sensorplattform für biochemische Anwendungen, welche auf einem optischen Detektionsprinzips beruht, im Vordergrund. Während der Entwicklung wurden zwei komplementäre Konzeptideen behandelt, zum einen ein Sensor, der auf photonischen Kristallen und Wellenleiterstrukturen basiert und zum anderen einen faserbasierten Sensor, der chemisch modifizierte Faser-Bragg-Gitter enthält. Das optische Detektionsprinzip in beiden Sensorideen ist die resultierende Brechungsindexänderung als messbare physikochemische Kenngröße.
Das aus der Natur bekannte Phänomen der photonischen Kristalle, das u. a. bei Opalen und bei Schmetterlingen zu finden ist, wurde bereits 1887 von Lord Rayleigh beschrieben. Er beschrieb die optischen Eigenschaften von periodischen mehrschichtigen Filmen, welche als vereinfachtes Modell eines eindimensionalen photonischen Kristalls verstanden werden können. Die Periodizität der Brechungsindexänderung resultiert in einem optischen Filter für Frequenzen in einem bestimmten spektralen Bereich, weshalb dann dort keine Lichtausbreitung mehr möglich ist. Wird dieses System aber durch eine Defektstelle in der Brechungsindexperiodizität gestört, sodass daraus zwei perfekt periodische Systeme entstehen, ist die Lichtausbreitung für eine bestimmte Frequenz dennoch möglich. In der Folge resultiert daraus ein schmalbandiges Signal im Transmissionsspektrum. Die erlaubte Frequenz ist dabei u. a. abhängig vom Brechungsindexunterschied des periodischen Systems, d.h. Veränderung des Brechungsindexes einer Schicht führt zu einer spektralen Verschiebung der erlaubten Frequenz, dadurch kann dieses Sensorkonzept für biochemische Sensorik ausgenutzt werden [1]. Diese Entwicklung des auf photonischen Kristallen basierenden Sensors war eine Kooperation mit dem Industriepartner „Nanoplus GmbH“. In der Doktorarbeit wurden Simulationen und praktischen Arbeiten zur Designentwicklung des Sensors und die Arbeiten an einem ersten Modellaufbau für die biochemischen Anwendungen durchgeführt.
Für den faserbasierten Sensor wurden Faser-Bragg-Gitter in den Faserkern hineingeschrieben. Hill et al. entdeckten 1978, dass solche Gitterstrukturen genau wie photonische Kristalle als optische Filter fungieren [2]. Die Gitter bestehen dabei aus Änderungen des Brechungsindexes im Faserkern. Im Laufe der nächsten vierzig Jahren wurden verschiedene Einschreibetechniken und Gitterstrukturen entwickelt, weshalb die Eigenschaften der jeweiligen Gitterstrukturen variieren. Eine solche Gitterstruktur sind u. a. die Faser-Bragg-Gitter, deren Gitterperiode, d. h. die Abstände der Brechungsindexmodifikationen, sich im Nanometer- bis Mikrometerbereich befinden. Aufgrund der kleinen Gitterperiode wird eine rückwärtsführende Welle im Kern für eine bestimmte Frequenz bzw. Wellenlänge, der Bragg-Wellenlänge, erzeugt. Im Endeffekt resultiert daraus ein schmalbandiges Signal sowohl im Transmissionsspektrum, als auch im Reflexionsspektrum. Die Resonanzwellenlänge ist dabei proportional zu der Gitterperiode und dem effektiven Brechungsindex, welcher vom Brechungsindex des Kerns und des kernumgebenen Materials abhängig ist. Letztlich eignet sich diese Technik für physikochemische Sensorik. Im Rahmen dieser Arbeit wurden die Gitter mit Hilfe einer relativen neuen Herstellungsmethode in die Fasern geschrieben [3]. Anschließend stand die Entwicklung eines Biosensors im Vordergrund, wobei zunächst ein Protokoll zum Ätzen der Faser mit Flusssäure entwickelt worden ist, dass das System sensitiv zum umgebenen Brechungsindex macht. Am Ende wurde ein Modellaufbau realisiert, indem ein Modellsystem, hier die Detektion vom C-reaktiven Protein mittels spezifischen einzelsträngigen DNS-Aptameren, erfolgreich getestet und quantifiziert worden ist.
1 Mandal, S.; Erickson, D. Nanoscale Optofluidic Sensor Arrays. Opt. Express 2008, 16 (3), 1623–1631.
2 Hill, K. O.; Fujii, Y.; Johnson, D. C.; Kawasaki, B. S. Photosensitivity in Optical Fiber Waveguides: Application to Reflection Filter Fabrication. Appl. Phys. Lett. 1978, 32 (10), 647–649.
3 Martínez, A.; Dubov, M.; Khrushchev, I.; Bennion, I. Direct Writing of Fibre Bragg Gratings by Femtosecond Laser. Electron. Lett. 2004, 40 (19), 1170.
In den letzten Jahrzehnten fand auch in der Beschichtungsindustrie ein Umdenken hin zu umweltfreundlicheren Farben und Lacken statt. Allerdings basieren auch neue Lösungen meist nicht auf Biopolymeren und in einem noch geringeren Anteil auf wasserbasierten Beschichtungssystemen aus nachwachsenden Rohstoffen. Dies stellt den Anknüpfungspunkt dieser Arbeit dar, in der untersucht wurde, ob das Biopolymer Stärke das Potenzial zum wasserbasierten Filmbildner für Farben und Lacke besitzt. Dabei müssen angelehnt an etablierte synthetische Marktprodukte die folgenden Kriterien erfüllt werden: Die wässrige Dispersion muss mindestens einen 30%igen Feststoffgehalt haben, bei Raumtemperatur verarbeitet werden können und Viskositäten zwischen 10^2-10^3 mPa·s aufweisen. Die finale Beschichtung muss einen geschlossenen Film bilden und sehr gute Haftfestigkeiten zu einer spezifischen Oberfläche, in dieser Arbeit Glas, besitzen. Als Grundlage für die Modifizierung der Stärke wurde eine Kombination von molekularem Abbau und chemischer Funktionalisierung ausgewählt. Da nicht bekannt war, welchen Einfluss die Stärkeart, die gewählte Abbaureaktion als auch verschiedene Substituenten auf die Dispersionsherstellung und deren Eigenschaften sowie die Beschichtungseigenschaften ausüben könnten, wurden die strukturellen Parameter getrennt voneinander untersucht.
Das erste Themengebiet beinhaltete den oxidativen Abbau von Kartoffel- und Palerbsenstärke mittels des Hypochlorit-Abbaus (OCl-) und des ManOx-Abbaus (H2O2, KMnO4). Mit beiden Abbaureaktionen konnten vergleichbare gewichtsmittlere Molmassen (Mw) von 2·10^5-10^6 g/mol (GPC-MALS) hergestellt werden. Allerdings führten die gewählten Reaktionsbedingungen beim ManOx-Abbau zur Bildung von Gelpartikeln. Diese lagen im µm-Bereich (DLS und Kryo-REM-Messungen) und hatten zur Folge, dass die ManOx-Proben deutlich erhöhte Viskositäten (c: 7,5 %; 9-260 mPa·s) im Vergleich zu den OCl--Proben (4-10 mPa·s) bei scherverdünnendem Verhalten besaßen und die Eigenschaften von viskoelastischen Gelen (G‘ > G‘‘) zeigten. Des Weiteren wiesen sie reduzierte Heißwasserlöslichkeiten (95 °C, vorrangig: 70-99 %) auf. Der OCl--Abbau führte zu hydrophileren (Carboxylgruppengehalt bis zu 6,1 %; ManOx: bis zu 3,1 %), nach 95 °C-Behandlung vollständig wasserlöslichen abgebauten Stärken, die ein Newtonsches Fließverhalten mit Eigenschaften einer viskoelastischen Flüssigkeit (G‘‘ > G‘) hatten. Die OCl--Proben konnten im Vergleich zu den ManOx-Produkten (10-20 %) zu konzentrierteren Dispersionen (20-40 %) verarbeitet werden, die gleichzeitig die Einschränkung von anwendungsrelevanten Mw auf < 7·10^5 g/mol zuließen (Konzentration sollte > 30 % sein). Außerdem führten nur die OCl--Proben der Kartoffelstärke zu transparenten (alle anderen waren opak) geschlossenen Beschichtungsfilmen. Somit hebt sich die Kombination von OCl--Abbau und Kartoffelstärke mit Hinblick auf die Endanwendung ab.
Das zweite Themengebiet umfasste Untersuchungen zum Einfluss von Ester- und Hydroxyalkylether-Substituenten auf Basis einer industriell abgebauten Kartoffelstärke (Mw: 1,2·10^5 g/mol) vor allem auf die Dispersionsherstellung, die rheologischen Eigenschaften der Dispersionen und die Beschichtungseigenschaften in Kombination mit Glassubstraten. Dazu wurden Ester und Ether mit DS/MS-Werten von 0,07-0,91 synthetisiert. Die Derivate konnten zu wasserbasierten Dispersionen mit Konzentrationen von 30-45 % verarbeitet werden, wobei bei hydrophoberen Modifikaten ein Co-Lösemittel, Diethylenglycolmonobutylether (DEGBE), eingesetzt werden musste. Die Feststoffgehalte sanken dabei für beide Derivatklassen vor allem mit zunehmender Alkylkettenlänge. Die anwendungsrelevanten Viskositäten (323-1240 mPa·s) stiegen auf Grund von Wechselwirkungen tendenziell mit DS/MS und Alkylkettenlänge an. Hinsichtlich der Beschichtungseigenschaften erwiesen sich die Ester vergleichend zu den Ethern als die bevorzugte Substituentenklasse, da nur die Ester geschlossene, defektfreie und mehrheitlich transparente Beschichtungsfilme bildeten, die exzellente bis sehr gute Haftfestigkeiten (ISO Klasse: 0 und 1) auf Glas besaßen. Die Ether bildeten mehrheitlich brüchige Filme. Basierend auf der Kombination der Ergebnisse aus Lösemittelaustausch, den rheologischen Untersuchungen und zusätzlichen Oberflächenspannungsmessungen (30-61 mN/m) konnte geschlossen werden, dass wahrscheinlich fehlende oder schlechte Haftfestigkeiten vorrangig akkumuliertem Wasser in den Beschichtungsfilmen (visuell: trüb oder weiß) geschuldet sind, während die Brüchigkeit vermutlich auf Wechselwirkungen (H-Brücken Wechselwirkungen, hydrophobe Wechselwirkungen) zwischen den Polymeren zurückgeführt werden kann.
Insgesamt scheint die Kombination aus Kartoffelstärke basierend auf dem OCl--Abbau mit Mw < 7·10^5 g/mol und einem Estersubstituenten eine gute Wahl für wasserbasierte Dispersionen mit hohen Feststoffkonzentrationen (> 30 %), guter Filmbildung und exzellenten Haftungen auf Glas zu sein.
Diese Arbeit befasst sich mit der Synthese und der Charakterisierung von thermoresponsiven Polymeren und ihrer Immobilisierung auf festen Oberflächen als nanoskalige dünne Schichten. Dabei wurden thermoresponsive Polymere vom Typ der unteren kritischen Entmischungstemperatur (engl.: lower critical solution temperature, LCST) verwendet. Sie sind bei niedrigeren Temperaturen im Lösungsmittel gut und nach Erwärmen oberhalb einer bestimmten kritischen Temperatur nicht mehr löslich; d. h. sie weisen bei einer bestimmten Temperatur einen Phasenübergang auf. Als Basismaterial wurden verschiedene thermoresponsive und biokompatible Polymere basierend auf Diethylenglykolmethylethermethacrylat (MEO2MA) und Oligo(ethylenglykol)methylethermethacrylat (OEGMA475, Mn = 475 g/ mol) über frei radikalische Copolymerisation synthetisiert. Der thermoresponsive Phasenübergang der Copolymere wurde in wässriger Lösung und in gequollenen vernetzten dünnen Schichten beobachtet. Außerdem wurde untersucht, inwiefern eine selektive Proteinbindung an geeignete funktionalisierte Copolymere die Phasenübergangstemperatur beeinflusst. Die thermoresponsiven Copolymere wurden über photovernetzbare Gruppen auf festen Oberflächen immobilisiert. Die nötigen lichtempfindlichen Vernetzereinheiten wurden mittels des polymerisierbaren Benzophenonderivates 2 (4 Benzoylphenoxy)ethylmethacrylat (BPEM) in das Copolymer integriert. Dünne Filme der Copolymere mit ca. 100 nm Schichtdicke wurden über Rotationsbeschichtung auf Siliziumwafer aufgeschleudert und anschließend durch Bestrahlung mit UV Licht vernetzt und auf der Oberfläche immobilisiert. Die Filme sind stabiler je größer der Vernetzeranteil und je größer die Molmasse der Copolymere ist. Bei einem Waschprozess nach der Vernetzung wird beispielsweise aus einem Film mit moderater Molmasse und geringem Vernetzeranteil mehr unvernetztes Copolymer ausgewaschen als bei einem höhermolekularen Copolymer mit hohem Vernetzeranteil. Die Quellbarkeit der Polymerschichten wurde mit Ellipsometrie untersucht. Sie ist größer je geringer der Vernetzeranteil in den Copolymeren ist. Schichten aus thermoresponsiven OEG Copolymeren zeigen einen Volumenphasenübergang vom Typ der LCST. Der thermoresponsive Kollaps der Schichten ist komplett reversibel, die Kollapstemperatur kann über die Zusammensetzung der Copolymere eingestellt werden. Für einen Vergleich dieser Eigenschaften mit dem gut charakterisierten und derzeit wohl am häufigsten untersuchten thermoresponsiven Polymer Poly(N-isopropylacrylamid) (PNIPAM) wurden zusätzlich photovernetzte Schichten aus PNIPAM hergestellt und ebenfalls ellipsometrisch vermessen. Im Vergleich zu PNIPAM verläuft der Phasenübergang der Schichten aus den Copolymeren mit Oligo(ethylenglykol)-seitenketten (OEG Copolymere) über einen größeren Temperaturbereich. Mit Licht einer Wellenlänge > 300 nm wurden die photosensitiven Benzophenongruppen selektiv angeregt. Bei der Verwendung kleinerer Wellenlängen vernetzten die Copolymerschichten auch ohne die Anwesenheit der lichtempfindlichen Benzophenongruppen. Dieser Effekt ließ sich zur kontrollierten Immobilisierung und Vernetzung der OEG Copolymere einsetzen. Als weitere Methode zur Immobilisierung der Copolymere wurde die Anbindung über Amidbindungen untersucht. Dazu wurden OEG Copolymere mit dem carboxylgruppenhaltigen 2 Succinyloxyethylmethacrylat (MES) auf mit 3 Aminopropyldimethylethoxysilan (APDMSi) silanisierte Siliziumwafer rotationsbeschichtet, und mit dem oligomeren α, ω Diamin Jeffamin® ED 900 vernetzt. Die Vernetzungsreaktion erfolgte ohne weitere Zusätze durch Erhitzen der Proben. Die Hydrogelschichten waren anschließend stabil und zeigten neben thermoresponsivem auch pH responsives Verhalten. Um zu untersuchen, ob die Phasenübergangstemperatur durch eine Proteinbindung beeinflusst werden kann, wurde ein polymerisierbares Biotinderivat 2 Biotinyl-aminoethylmethacrylat (BAEMA) in das thermoresponsive Copolymer eingebaut. Der Einfluss des biotinbindenen Proteins Avidin auf das thermoresponsive Verhalten des Copolymers in Lösung wurde untersucht. Die spezifische Bindung von Avidin an das biotinylierte Copolymer verschob die Übergangstemperatur deutlich zu höheren Temperaturen. Kontrollversuche zeigten, dass dieses Verhalten auf eine selektive Proteinbindung zurückzuführen ist. Thermoresponsive OEG Copolymere mit photovernetzbaren Gruppen aus BPEM und Biotingruppen aus BAEMA wurden über Rotationsbeschichtung auf Gold- und auf Siliziumoberflächen aufgetragen und durch UV Strahlung vernetzt. Die spezifische Bindung von Avidin an die Copolymerschicht wurde mit Oberflächenplasmonenresonanz und Ellipsometrie untersucht. Die Bindungskapazität der Schichten war umso größer, je kleiner der Vernetzeranteil, d. h. je größer die Maschenweite des Netzwerkes war. Die Quellbarkeit der Schichten wurde durch die Avidinbindung erhöht. Bei hochgequollenen Systemen verursachte eine Mehrfachbindung des tetravalenten Avidins allerdings eine zusätzliche Quervernetzung des Polymernetzwerkes. Dieser Effekt wirkt der erhöhten Quellbarkeit durch die Avidinbindung entgegen und lässt die Polymernetzwerke schrumpfen.
Ziel der Arbeit war die Entwicklung von farbstoffmarkierten Polymeren, die einen temperaturgetriebenen Knäuel-Kollaps-Phasenübergang in wässriger Lösung ("thermo-responsive Polymere") zeigen und diesen in ein optisches Signal übersetzen können. Solche Polymere unterliegen innerhalb eines kleinen Temperaturintervalls einer massiven Änderung ihres Verhaltens, z B. ihrer Konformation und ihres Quellungsgrads. Diese Änderungen sind mit einem Wechsel der Löseeigenschaften von hydrophil zu hydrophob verbunden. Als Matrixpolymere wurden Poly-N-isopropylacrylamid (polyNIPAm), Poly(oligoethylen-glykolacrylat) (polyOEGA) und Poly(oligoethylenglykolmethacrylat) (polyOEGMA) ein-gesetzt, in die geeignete Farbstoffen durch Copolymerisation eingebaut wurden. Als besonders geeignet, um den Phasenübergang in ein optisches Signal zu übersetzen, erwiesen sich hierfür kompakte, solvatochrome Cumarin- und Naphthalimidderivate. Diese beeinträchtigten weder das Polymerisationsverhalten noch den Phasenübergang, reagierten aber sowohl bezüglich Farbe als auch Fluoreszenz stark auf die Polarität des Lösemittels. Weiterhin wurden Systeme entwickelt, die mittels Energietransfer (FRET) ein an den Phasenübergang gekoppeltes optisches Signal erzeugen. Hierbei wurde ein Cumarin als Donor- und ein Polythiophen als Akzeptorfarbstoff eingesetzt. Es zeigte sich, dass trotz scheinbarer Ähnlichkeit bestimmte Polymere ausgeprägt auf einen Temperaturstimulus mit Änderung ihrer spektralen Eigenschaften reagieren, andere aber nicht. Hierfür wurden die molekularen Ursachen untersucht. Als wahrscheinliche Gründe für das Ausbleiben einer spektralen Änderung in Oligo(ethylenglykol)-basierten Polymeren sind zum einen die fehlende Dehydratationseffektivität infolge des Fehlens eines selbstgenügenden Wasserstoffbrückenbindungsmotivs zu nennen und zum anderen die sterische Abschirmung der Farbstoffe durch die Oligo(ethylenglykol)-Seitenketten. Als Prinzipbeweis für die Nützlichkeit solcher Systeme für die Bioanalytik wurde ein System entwickelt, dass die Löslichkeitseigenschaft eines thermoresponsiven Polymers durch Antikörper-Antigen-Reaktion änderte. Die Bindung selbst kleiner Mengen eines Antikörpers ließ sich so direkt optisch auslesen und war bereits mit dem bloßen Auge zu erkennen.
In dieser Arbeit wird die Entwicklung eines bifunktionellen Biosensors nach dem Vorbild eines Baukastensystems beschrieben. Das Ziel wird durch die Kombination verschiedenster molekularer Erkennungselemente erreicht. Solche molekularen Erkennungselemente im verwendeten System sind: • Propidium und die periphere anionische Bindungsstelle der Acetylcholinesterase (AChE) • Organophosphate und das aktive Zentrum der AChE • ein an die AChE gekoppeltes Hapten und das Epitop eines Antikörpers • ein an die AChE gekoppeltes Hapten, das als Ligand ein weiteres Enzym bindet Neben dem molekularen Erkennungselement wird ein Biosensor ebenso durch die Art des Transducers charakterisiert. Hier werden Quarzplättchen mit Goldelektroden zur Signalumwandlung eingesetzt. Die Verwendung solcher Sensoren mit einem EQCM-Gerät (electrochemical quartz crystal microbalance) ermöglicht es zwei Messsignale gleichzeitig aufzunehmen: die piezoelektrische Bestimmung einer Massebeladung und die amperometrische Detektion von Enzymaktivität auf der Sensoroberfläche. Für die Analytik stehen somit zwei verschiedene Assay-Varianten zur Verfügung: die Bestimmung der Inhibition der ACHE-Aktivität und ein Bindungstest über das Hapten. Die Basis beider Tests ist die Modifizierung der piezoelektrischen Kristalle mit Propidium – einem reversiblen Inhibitor der Acetylcholinesterase. Dies ermöglicht die Beladung des Sensors mit AChE über die Wechselwirkung mit der peripheren anionischen Bindungsstelle des Enzyms. Die Aktivität der so immobilisierten AChE und die Inhibition durch Organophosphate (Pestizide) werden amperometrisch bestimmt. Durch die chemische Kopplung eines Hapten an die Cholinesterase wird ein weiteres Erkennungselement eingeführt. Das eröffnet die Möglichkeit, an die auf dem Propidium-modifizierten Sensor immobilisierte, haptenisierte Cholinesterase einen Antikörper zu binden. Als Voraussetzung für elektrochemische Bestimmung der AChE-Aktivität wurde zunächst die Optimierung der amperometrischen Messmethode vorgenommen. Die Oxidatationspotentiale für die Detektion von Thiocholin wurden im Bereich von 150 mV bis 300 mV variiert. Dabei wurde für die nachfolgenden Untersuchungen eine Arbeitspotential von 200 mV (vs. Ag/AgCl) festgelegt, da hier das beste Verhältnis von gemessenem Oxidationsstrom und Langzeitstabilität der Propidium-modifizierten Sensoren erzielt wurde. Dieses Potential war deutlich geringer als die bisher publizierten Mediator-freien AChE-Biosensoren. Es wurde ein Vergleich verschiedener Organophosphate über ihre Inhibitionskonstanten durchgeführt, um diejenigen herauszufinden, die möglichst schnell mit dem aktiven Zentrum der Acetylcholinesterase reagieren. Das verwendete Messsystem beruht nicht auf der Vorinkubation der AChE und damit einer Einstellung des Inhibitionsgleichgewichts. Stattdessen wurde die Inhibition der AChE direkt im Fließsystem verfolgt. Daher war eine schnelle Inhibitionskinetik für einen empfindlichen Organophosphat-Nachweis erforderlich. Da einige Inhibitoren nur als Phosphothionat vorlagen, wurde die Überführung dieser Substanzen in die entsprechenden Oxo-Formen mittels N-Bromsuccinimid untersucht. Die NBS-Aktivierung wurde erfolgreich durchgeführt, die erwartete Inhibitionsstärke konnte jedoch aufgrund hydrolytischer Vorgänge nicht erreicht werden. Untersuchungen mit Diisopropylfluorophosphat (DFP) und Chlorpyriphos-oxon (CPO) konnten die Voruntersuchungen über die Inhibitionskinetik in Bezug auf die erreichten Nachweisgrenzen von 2E-06 M für DFP und 5E-08 M für CPO bestätigen. Für die chemische Modifizierung der Acetylcholinesterase wurde zunächst 2,4-Dichlorphenoxyessigsäure (2,4-D) als Hapten ausgewählt. 2,4-D wird als Herbizid eingesetzt und in der EU über die Gewässerschutzrichtlinie reguliert. 2,4-D konnte in unterschiedlichen molaren Verhältnissen von 2,6 : 1 bis 260 : 1 (2,4-D : AChE) nach Aktivierung mit einem Norbornendicarboximido-Derivat an die AChE gekoppelt werden. Dabei konnte die spezifische Aktivität der Acetylcholinesterase erhalten und die Bindung eines anti-2,4-D-Antikörpers ermöglicht werden. Zur Verstärkung des piezolelektrischen Signals der Antikörperbindung wurden die Immunoglobuline zunächst an Goldnanopartikel gekoppelt. Damit konnte eine Verstärkung um den Faktor 10 erreicht werden. Allerdings waren die Antikörper-modifizierten Goldnanopartikel nicht langzeitstabil. Daher wurden auch Silica-Nanopartikel als Matrix für die Antikörperkopplung getestet. Mit diesem System konnte eine Verstärkung um den Faktor von 5 bis 13 je nach Grad der Beladung den Nanopartikel mit Antikörper bestimmt werden. Die hohe unspezifische Bindung der Antikörper-Nanopartikel-Konjugate an den Propidium-modifizierten QCM-Sensor konnte keinen empfindlichen 2,4-D-Nachweis ermöglichen. Als Alternative wurde Kokain (Benzoylecgonin, BZE) als Hapten an die Aceytlcholinesterase gekoppelt. Da Kokain selbst auch als Inhibitor im aktiven Zentrum der AChE binden kann, wurden zwei verschiedene Strategien zur Konjugatsynthese verfolgt. Durch Zugabe von Kokain während der Kopplung sollte die kovalente Fixierung des Kokain-Derivats BZE-DADOO im aktiven Zentrum verhindert werden (Konjugat B). In der Tat konnten mit dieser Synthesestrategie 67% der spezifischen Cholinesterase-Aktivität erhalten werden, während im Kokain-freien Ansatz (Konjugat A) nur 2% der Ausgangsaktivität wiedergefunden wurden. Das BZE-AChE-Konjugat ermöglichte auch die Untersuchung der Bindungskinetik der anti-BZE-Antikörper. Dabei konnte eine Assoziationsgeschwindigkeitskonstante ka von 12911 l/(mol•s) berechnet werden. Dieser Wert ist trotz der vergleichsweise geringen Oberflächenbeladung vergleichbar mit den in der Literatur angegebenen Werten. Die Dissoziationsgeschwindigkeitskonstante ist mit 2,89E−3 1/s um den Faktor 30 höher als der Literaturwert. Diese Abweichung ist auf Unterschiede im Bindungsmodell zurückzuführen. Mit beiden BZE-AChE-Konjugaten konnte ein kompetetiver Immunoassay mit Kokain im Fließsystem durchgeführt werden. Dabei zeigte sich für beide Konjugate ein ähnlicher Testmittelpunkt: IC50 = 4,40E−8 mol/l für Konjugat A bzw. IC50 = 1,77E−8 mol/l für Konjugat B. Diese Werte sind vergleichbar zu bereits publizierten Kokainassays im Fließsystem. Wie vorstehend beschrieben, bindet Kokain als Inhibitor auch im aktiven Zentrum von Cholinesterasen. Diese Eigenschaft wurde genutzt, um ein zweites Enzym – Butyrylcholinesterase (BChE) – an die BZE-AChE zu binden. Die Spezifität dieser Bindung konnte durch die Abwesenheit einer Affinität der BChE zum Propidium und durch die Blockierbarkeit der Bindung von BChE und BZE-AChE durch Kokain nachgewiesen werden. Damit konnte erfolgreich die Kombination mehrere molekularer Erkennungselemente demonstriert werden. Die Propidium-Plattform ermöglicht den Aufbau einer Architektur aus verschiedenen Cholinesterasen, die über unterschiedliche Bindungsstellen wechselwirken. Sowohl freie als auch BZE-modifizierte AChE können über die Affinität zum Propidium auf dem EQCM-Sensor immobilisiert werden. Mit Kokain als Substrat der Butyrylcholinesterase kann Benzoylecgonin nicht nur als Epitop für die Bindung eines Antikörpers, sondern auch als Erkennungselement für die BChE genutzt werden. Auf der anderen Seite erschwert die geringe Affinität der BChE im Gegensatz zum anti-BZE-Antikörper den Einsatz dieses Systems für analytische Zwecke. Durch die Verwendung anderer Ligand-Enzym-Kombinationen läßt sich das in dieser Arbeit vorgestellte Konzept noch weiter ausbauen und ermöglicht damit eine Entwicklung ausgehend von „einfachen“ molekularen Erkennungselementen (MRE) hin zu „multifunktionellen“ Erkennungselementsystemen. In dieser Arbeit konnte demonstriert werden, dass der Aufbau solch komplexe Systeme möglich ist, ohne Abstriche in Bezug auf die Empfindlichkeit der einzelnen Assays hinzunehmen.
Entwicklung multi-stimuli sensitiver Materialien auf der Basis von flüssigkristallinen Elastomeren
(2012)
Aufgrund der zunehmenden technischen Ansprüche der Gesellschaft sind sich aktiv bewegende Polymere in den Mittelpunkt aktueller Forschung gerückt. Diese spielen bei Anwen-dungen im Bereich von künstlichen Muskeln und Implantaten für die minimal invasive Chirurgie eine wichtige Rolle. Vor allem Formänderungs- und Formgedächtnispolymere stehen dabei im wissenschaftlichen Fokus. Während die kontaktlose Deformation einer permanenten Form in eine temporäre metastabile Form, charakteristisch für Formände-rungspolymere ist, kann bei Formgedächtnis-Materialien die temporäre Form, aufgrund der Ausbildung reversibler, temporärer Netzpunkte, fixiert werden. Ein Polymermaterial, das eine Kombination beider Funktionen aufweist würde zu einem Material führen welches kontaktlos in eine temporäre Form deformiert und in dieser fixiert werden kann. Zusätzlich würde aufgrund der kontaktlosen Deformation die Reversibilität dieser Funktion gewähr-leistet sein. Ein solches Material ist bislang noch nicht beschrieben worden. In dieser Arbeit wird untersucht, ob durch die Kopplung zweier separat schaltbarer, be-kannter Funktionen eine neue schaltbare Funktion erzielt werden kann. Daher wurden multi-stimuli sensitive Materialien entwickelt die eine Kopplung des Formänderungs- und des Formgedächtniseffektes aufweisen. Dazu wurden zwei Konzepte entwickelt, die sich hinsichtlich der Reihenfolge der verwendeten Stimuli unterscheiden. Im ersten Konzept wurden flüssigkristalline Elastomere basie-rend auf Azobenzenderivaten aufgebaut und hinsichtlich der Kombination des licht-induzierten Formänderungseffektes mit dem thermisch-induzierten Formgedächtniseffekt untersucht. Diese orientierten Netzwerke weisen oberhalb der Glasübergangstemperatur (Tg) eine kontaktlose Verformung (Biegung) durch Bestrahlung mit UV-Licht des geeigneten Wellenlängenbereichs auf, wodurch eine temporäre Form erhalten wurde. Hierbei spielt der Vernetzungsgrad eine entscheidende Rolle bezüglich der Ausprägung dieser Biegung. Eine fixierte, temporäre Form konnte durch gleichzeitiges Abkühlen des Materials unterhalb von Tg während der Bestrahlung mit UV-Licht erhalten werden. Nach erneutem Aufheizen über Tg konnte die Originalform wiederhergestellt werden. Dieser Vorgang konnte reversibel durchgeführt werden. Damit wurde gezeigt, dass eine neue schaltbare Funktion erzielt wurde, die auf der Kopplung des lichtinduzierten Formänderungs- mit dem thermisch-induzierten Formgedächtniseffekt basiert. Die Abstimmung der einzelnen Funktion wird in diesem Konzept über die Morphologie des Systems gewährleistet. Diese neue Funktion ermöglicht eine kontaktlose Deformation des Materials in eine temporäre Form, welche fixiert werden kann. Im zweiten Konzept wurde eine Kopplung des thermisch induzierten Formänderungs- mit dem licht-induzierten Formgedächtniseffekt angestrebt. Um dies zu realisieren wurden nematisch, flüssigkristalline Hauptkettenelastomere (NMC-LCE) entwickelt, die eine nied-rige Übergangstemperatur der nematischen in die isotrope Phase (TNI), als auch einen aus-geprägten thermisch induzierten Formänderungseffekt aufweisen. Zusätzlich wurde eine photosensitive Schicht aufgebaut, die Cinnamylidenessigsäuregruppen in der Seitenkette eines Polysiloxanrückgrates aufweist. Die Reversibilität der photoinduzierten [2+2]-Cycloaddition konnte für dieses photosensitive Polymer beobachtet werden, wodurch die-ses Polymersystem in der Lage ist reversible temporäre Netzpunkte, aufgrund der Bestrah-lung mit UV-Licht, auszubilden. Die kovalente Anbindung der photosensitiven Schicht an die Oberfläche des flüssigkristallinen Kerns wurde erfolgreich durchgeführt, wodurch ein Multi-Komponenten-System aufgebaut wurde. Die Kombination des thermisch-induzierten Formänderungs- mit dem licht-induzierten Formgedächtniseffektes wurde anhand dieses Systems untersucht. Während die Einzelkomponenten die erforderliche Funktion zeigten, ist hier noch Arbeit in der Abstimmung beider Strukturen zu leisten. Insbesondere die Variation der Schichtdicken beider Komponenten steht im Fokus zukünftiger Arbeiten. In dieser Arbeit wurde durch die Kopplung von zwei separat schaltbaren, bekannten Funktionen eine neue schaltbare Funktion erzielt. Dies setzt voraus, dass die Einzelkomponenten hinsichtlich einer Funktion schaltbar sind und in einem Material integriert werden können. Des Weiteren müssen die beiden Funktionen mit unterschiedlichen Stimuli geschaltet werden. Ein wichtiger Schritt bei der Kopplung der Funktionen, ist die Abstimmung der beiden Komponenten. Dies kann über die Variation der Morphologie oder der Struktur erzielt werden. Anhand der Vielzahl der vorhandenen stimuli-sensitiven Materialien sind verschiedene Kopplungsmöglichkeiten vorhanden. Demnach wird erwartet, dass auf diesem Gebiet weitere neue Funktionen erzielt werden können.
Das Influenzavirus infiziert Säugetiere und Vögel. Der erste Schritt im Infektionszyklus ist die Anbindung des Viruses über sein Oberflächenprotein Hämagglutinin (HA) an Zuckerstrukturen auf Epithelzellen des respiratorischen Traktes im Wirtsorganismus. Aus den drei komplementaritätsbestimmenden Regionen (complementarity determining regions, CDRs) der schweren Kette eines monoklonalen Hämagglutinin-bindenden Antikörpers wurden drei lineare Peptide abgeleitet. Die Bindungseigenschaften der drei Peptide wurden experimentell mittels Oberflächenplasmonenresonanzspektroskopie untersucht. Es zeigte sich, dass in Übereinstimmung mit begleitenden Molekulardynamik-Simulationen zwei der drei Peptide (PeB und PeC) analog zur Bindefähigkeit des Antikörpers in der Lage sind, Influenzaviren vom Stamm X31 (H3N2 A/Aichi/2/1968) zu binden. Die Interaktion des Peptids PeB, welches potentiell mit der konservierten Rezeptorbindestelle im HA interagiert, wurde anschließend näher charakterisiert. Die Detektion der Influenzaviren war unter geeigneten Immobilisationsbedingungen im diagnostisch relevanten Bereich möglich. Die Spezifität der PeB-Virus-Bindung wurde mittels geeigneter Kontrollen auf der Seite des Analyten und des Liganden nachgewiesen. Des Weiteren war das Peptid PeB in der Lage die Bindung von X31-Viren an Mimetika seines natürlichen Rezeptors zu inhibieren, was die spezifische Interaktion mit der Rezeptorbindungsstelle im Hämagglutinin belegt. Anschließend wurde die Primärsequenz von PeB durch eine vollständige Substitutionsanalyse im Microarray-Format hinsichtlich der Struktur-Aktivitäts-Beziehungen charakterisiert. Dies führte außerdem zu verbesserten Peptidvarianten mit erhöhter Affinität und breiterer Spezifität gegen aktuelle Influenzastämme verschiedener Serotypen (z.B. H1N1/2009, H5N1/2004, H7N1/2013). Schließlich konnte durch Verwendung einer in der Primärsequenz angepassten höher affinen Peptidvariante die Influenzainfektion in vitro inhibiert werden. Damit stellen die vom ursprünglichen Peptid PeB abgeleiteten Varianten Rezeptormoleküle in biosensorischen Testsystemen sowie potentielle Wirkstoffe dar.
Monoklonale Antikörper (mAK) sind eines der wichtigsten Biomoleküle für die Umweltanalytik und die medizinische Diagnostik. Für die Detektion von Mikroorganismen bilden sie die Grundlage für ein schnelles und präzises Testverfahren. Bis heute gibt es, aufgrund des hohen zeitlichen und materiellen Aufwandes und der unspezifischen Immunisierungsstrategien, nur wenige mAK, die spezifisch Mikroorganismen erkennen.
Zu diesem Zweck sollte ein anwendbares Verfahren für die Generierung von mAK gegen Mikroorganismen entwickelt werden, welches anhand von Escherichia coli O157:H7 und Legionella pneumophila validiert wurde. In dieser Dissertation konnten neue Oberflächenstrukturen auf den Mikroorganismen mittels vergleichender Genomanalysen und in silico Epitopanalysen identifiziert werden. Diese wurden in das Virushüllprotein VP1 integriert und für eine gezielte Immunisierungsstrategie verwendet. Für die Bestimmung antigenspezifischer antikörperproduzierender Hybridome wurde ein Immunfärbeprotokoll entwickelt und etabliert, um die Hybridome im Durchflusszytometer zu sortieren.
In der vorliegenden Studie konnten für E. coli O157:H7 insgesamt 53 potenzielle Proteinkandidaten und für L. pneumophila 38 Proteine mithilfe der bioinformatischen Analyse identifiziert werden. Fünf verschiedene potenzielle Epitope wurden für E. coli O157:H7 und drei verschiedenen für L. pneumophila ausgewählt und für die Immunisierung mit chimären VP1 verwendet. Alle Immunseren zeigten eine antigenspezifische Immunantwort. Aus den nachfolgend generierten Hybridomzellen konnten mehrere Antikörperkandidaten gewonnen werden, welche in Charakterisierungsstudien eine starke Bindung zu E. coli O157:H7 bzw. L. pneumophila vorwiesen. Kreuzreaktivitäten zu anderen relevanten Mikroorganismen konnten keine bzw. nur in geringem Maße festgestellt werden.
Folglich konnte der hier beschriebene interdisziplinäre Ansatz zur Generierung spezifischer mAK gegen Mikroorganismen nachweislich spezifische mAK hervorbringen und ist als hocheffizienter Arbeitsablauf für die Herstellung von Antikörpern gegen Mikroorganismen einsetzbar.
Das Ziel dieser Arbeit ist die Entwicklung eines Industrie 4.0 Reifegradindex für produzierende Unternehmen (KMU und Mittelstand) mit diskreter Produktion. Die Motivation zu dieser Arbeit entstand aus dem Zögern vieler Unternehmen – insbesondere KMU und Mittelstand – bei der Transformation in Richtung Industrie 4.0. Im Rahmen einer Marktstudie konnte belegt werden, dass 86 Prozent der befragten produzierenden Unternehmen kein für ihr Unternehmen geeignetes Industrie 4.0 Reifegradmodell gefunden haben, mit dem sie ihren Status Quo bewerten und Maßnahmen für einen höheren Grad der Reife ableiten könnten. Die Bewertung bestehender Reifegradmodelle zeigte Defizite hinsichtlich der Industrie 4.0 Abdeckung, der Betrachtung der sozio-technischen Dimensionen Mensch, Technik und Organisation sowie der Betrachtung von Management und Unternehmenskultur. Basierend auf den aktuellen Industrie 4.0 Technologien und Handlungsbereichen wurde ein neues, modular aufgebautes Industrie 4.0 Reifegradmodell entwickelt, das auf einer ganzheitlichen Betrachtung aller sozio-technischen Dimensionen Mensch, Technik und Organisation sowie deren Schnittstellen basiert. Das Modell ermittelt neben dem Overall Industry 4.0 Maturity Index (OI4MI) vier weitere Indizes zur Bewertung der Industrie 4.0 Reife des Unternehmens. Das Modell wurde bei einem Unternehmen validiert und steht nun als Template für darauf aufbauende Forschungsarbeiten zur Verfügung.
In der vorliegenden Arbeit werden verschiedene Spektrometer für die Analyse von Gasen bzw. Gasgemischen vorgestellt und deren Design, Aufbau, Charakterisierung und Optimierung beschrieben. Das Resultat der Optimierung und Weiterentwicklungen ist ein spektral breitbandiges Cavity-Ring-Down-Spektrometer (CRD-Spektrometer). Ausgangspunkt der hier vorgestellten Arbeit ist ein Spektrometer auf Basis klassischer Absorptionsspektroskopie in einer Multireflexionszelle. Für dieses Spektrometer wurde als Strahlquelle ein Superkontinuumlaser verwendet. Der Vorteil dieses Spektrometers liegt in seiner Kompaktheit. Mit diesem Spektrometer wurden Absorptionsspektren von mehreren Reingasen und einem Gasgemisch über einen Wellenlängenbereich von 1500 nm – 1700 nm aufgenommen. Der qualitative Vergleich mit zu erwartenden Spektren, welche auf der HITRAN-Datenbank basieren, zeigte eine gute Übereinstimmung. Die quantitative Interpretierbarkeit der Daten war jedoch stark eingeschränkt aufgrund des hohen zufälligen und systematischen Fehlers der Messungen. Als Konsequenz aus der als nicht zufriedenstellend bewerteten quantitativen Interpretierbarkeit der Daten wurde eine alternative Messmethode gesucht, welche eine höhere Sensitivität und Genauigkeit ermöglicht. Die Wahl fiel auf die Cavity-Ring-Down-Spektroskopie, eine resonatorgestützte Variante der Absorptionsspektroskopie. Wesentliche Vorteile dieser Technik sind a) die Unabhängigkeit von Leistungsschwankungen der Strahlquelle, b) ein effektiver Absorptionsweg von bis zu mehreren Kilometern, welcher sich unmittelbar auf die Sensitivität der Messungen auswirkt, c) die Ermittlung absoluter Absorberkonzentrationen, ohne die Notwendigkeit einer Kalibrierung oder den Vergleich mit einer Referenzzelle und d) die Vernachlässigbarkeit von Absorptionen außerhalb des Resonators. Als notwendiger Zwischenschritt auf dem Weg zu einem breitbandigen CRD-Spektrometer wurde zunächst ein monochromatisches CRD-Spektrometer designt, aufgebaut und charakterisiert. Für die effektive Einkopplung von Strahlungsenergie in einen Resonator ist die Anpassung der Strahlparameter an die Mode des Resonators notwendig. Voraussetzung dieser Anpassung ist die Kenntnis der Strahlparameter, welche experimentell ermittelt wurden. Im Laufe des Aufbaus des Spektrometers ergab sich, dass trotz der Modenanpassung die Einkopplung der Strahlungsenergie in den Resonator gestört wurde. Daraufhin wurden systematisch mögliche Ursachen dieser Störung untersucht und das Spektrometer optimiert. Mit diesem optimierten Spektrometer wurden Spektren gemessen, welche sowohl qualitativ als auch quantitativ gut mit den zu erwartenden Spektren übereinstimmen. Als Nachweisgrenze dieses Spektrometers wurde ein Wert für den Absorptionskoeffizienten alpha von 10^-8 cm-1 bestimmt. Mit dem monochromatischen CRD-Spektrometer war es zudem möglich, isotopenspezifische Messungen durchzuführen. Für das breitbandige Spektrometer wurde als Strahlquelle eine ASE-Diode (amplified spontaneous emission) verwendet. Dabei handelt es sich um eine inkohärente Strahlquelle. Mittels Messungen nach dem Prinzip der Cavity-Enhanced-Absorptionsspektroskopie wurde die generelle Funktionalität des resonatorgestützten Spektrometers überprüft. Anschließend wurden die wellenlängenabhängigen Abklingsignale des leeren und des mit einem CO2-Luft-Gemisch gefüllten Resonators gemessen und ebenfalls mit den zu erwartenden Spektren verglichen. Qualitativ stimmen die experimentellen Spektren gut mit den zu erwartenden Spektren überein. Für die quantitative Interpretation der Daten wurde ein spezieller Algorithmus entwickelt, der die spektrale Auflösung des Systems berücksichtigt. Mit dem vorgestellten Spektrometer ist so die qualitative und quantitative Interpretation der Spektren möglich. Die Nachweisgrenze des breitbandigen Cavity-Ring-Down-Spektrometers wurde zu einem Wert von alpha = 8x10^-7 cm-1 bestimmt. Der systematischen und der zufällige Fehler der Messungen lagen bei Werten von ca. 1%. Bei diesem Spektrometer handelt es sich um einen Prototyp. Mittels Optimierung des Systems lassen sich sowohl der Wert der Nachweisgrenze als auch die Fehler der Messungen verbessern.
Im Rahmen der vom Bundesministerium für Bildung und -forschung geförderten Forschungsinitiative „BonaRes – Boden als nachhaltige Ressource der Bioökonomie“ soll sich das Teilprojekt „I4S – integrated system for site-specific soil fertility management“ der Entwicklung eines integrierten Systems zum ortsspezifischen Management der Bodenfruchtbarkeit widmen. Hierfür ist eine Messplattform zur Bestimmung relevanter Bodeneigenschaften und der quantitativen Analyse ausgewählter Makro- und Mikronährstoffe geplant. In der ersten Phase dieses Projekts liegt das Hauptaugenmerk auf der Kalibrierung und Validierung der verschiedenen Sensoren auf die Matrix Boden, der Probennahme auf dem Acker und der Planung sowie dem Aufbau der Messplattform. Auf dieser Plattform sollen in der zweiten Phase des Projektes die verschiedenen Bodensensoren installiert, sowie Modelle und Entscheidungsalgorithmen zur Steuerung der Düngung und dementsprechend Verbesserung der Bodenfunktionen erstellt werden.
Ziel der vorliegenden Arbeit ist die Grundlagenuntersuchung und Entwicklung einer robusten Online-Analyse mittels Energie-dispersiver Röntgenfluoreszenzspektroskopie (EDRFA) zur Quantifizierung ausgewählter Makro- und Mikronährstoffe in Böden für eine kostengünstige und flächendeckende Kartierung von Ackerflächen. Für die Entwicklung eines Online-Verfahrens wurde ein dem Stand der Technik entsprechender Röntgenfluoreszenzmesskopf in Betrieb genommen und die dazugehörigen Geräteparameter auf die Matrix Boden optimiert. Die Bestimmung der analytischen Qualitäts-merkmale wie Präzision und Nachweisgrenzen fand für eine Auswahl an Nährelementen von Aluminium bis Zink statt. Um eine möglichst Matrix-angepasste Kalibrierung zu erhalten, wurde sowohl mit zertifizierten Referenzmaterialien (CRM), als auch mit Ackerböden kalibriert. Da einer der größten Nachteile der Röntgenfluoreszenzanalyse die Beeinflussung durch Matrixeffekte ist, wurde neben der klassischen univariaten Datenauswertung auch die chemometrische multivariate Methode der Partial Least Squares Regression (PLSR) eingesetzt. Die PLSR bietet dabei den Vorteil, Matrixeffekte auszugleichen, wodurch robustere Kalibriermodelle erhalten werden können. Zusätzlich wurde eine Hauptkomponentenanalyse (PCA) durchgeführt, um Gemeinsamkeiten und Ausreißer innerhalb des Probensets zu identifizieren. Es zeigte sich, dass eine Klassifizierung der Böden anhand ihrer Textur Sand, Schluff, Lehm und Ton möglich ist.
Aufbauend auf den Ergebnissen idealer Bodenproben (zu Tabletten gepresste luftgetrocknete Proben mit Korngrößen < 0,5 mm) wurde im Verlauf dieser Arbeit die Probenvorbereitung immer weiter reduziert und der Einfluss verschiedener Kenngrößen untersucht. Diese Einflussfaktoren können die Dichte und die Homogenität der Probe, sowie Korngrößeneffekte und die Feuchtigkeit sein. Anhand des RMSE (Wurzel der mittleren Fehlerquadratsumme) und unter Berücksichtigung der Residuen werden die jeweils erstellten Kalibriermodelle miteinander verglichen. Um die Güte der Modelle zu bewerten, wurden diese mit einem Testset validiert. Hierfür standen 662 Bodenproben von 15 verschiedenen Standorten in Deutschland zur Verfügung. Da die Ergebnisse an gepressten Tabletten für die Elemente Al, Si, K, Ca, Ti, Mn, Fe und Zn den Anforderungen für eine spätere Online-Analyse entsprechen, wurden im weiteren Verlauf dieser Arbeit Kalibriermodelle mit losen Bodenproben erstellt. Auch hier konnten gute Ergebnisse durch ausreichende Nachweisgrenzen und eine niedrige gemittelte Messabweichung bei der Vorhersage unbekannter Testproben erzielt werden. Es zeigte sich, dass die Vorhersagefähigkeit mit der multivariaten PLSR besser ist als mit der univariaten Datenauswertung, insbesondere für die Elemente Mn und Zn.
Der untersuchte Einfluss der Feuchtigkeit und der Korngrößen auf die Quantifizierung der Elementgehalte war vor allem bei leichteren Elementen deutlich zu sehen. Es konnte schließlich eine multivariate Kalibrierung unter Berücksichtigung dieser Faktoren für die Elemente Al bis Zn erstellt werden, so dass ein Einsatz an Böden auf dem Acker möglich sein sollte. Eine höhere Messunsicherheit muss dabei einkalkuliert werden. Für eine spätere Probennahme auf dem Feld wurde zudem der Unterschied zwischen statischen und dynamischen Messungen betrachtet, wobei sich zeigte, dass beide Varianten genutzt werden können. Zum Abschluss wurde der hier eingesetzte Sensor mit einem kommerziell erhältlichen Hand-Gerät auf sein Quantifizierungspotential hin verglichen. Der Sensor weist anhand seiner Ergebnisse ein großes Potential als Online-Sensor für die Messplattform auf. Die Ergebnisse unter Laborbedingungen zeigen, dass eine robuste Analyse Ackerböden unter Berücksichtigung der Einflussfaktoren möglich ist.
Weltweit streben Anti-Doping Institute danach jene Sportler zu überführen, welche sich unerlaubter Mittel oder Methoden bedienen. Die hierfür notwendigen Testsysteme werden kontinuierlich weiterentwickelt und neue Methoden aufgrund neuer Wirkstoffe der Pharmaindustrie etabliert. Gegenstand dieser Arbeit war es, eine parallele Mehrkomponentenanalyse auf Basis von Antigen-Antikörper Reaktionen zu entwickeln, bei dem es primär um Verringerung des benötigten Probevolumens und der Versuchszeit im Vergleich zu einem Standard Nachweis-Verfahren ging. Neben der Verwendung eines Multiplex Ansatzes und der Mikroarraytechnologie stellten ebenfalls die Genauigkeit aller Messparameter, die Stabilität des Versuchsaufbaus sowie die Performance über einen Einfach-Blind-Ansatz Herausforderungen dar. Die Anforderung an den Multiplex Ansatz, keine falschen Signale trotz ähnlicher Strukturen zu messen, konnte durch die gezielte Kombination von spezifischen Antikörpern realisiert werden. Hierfür wurden neben Kreuzreaktivitätstests auf dem Mikroarray parallel erfolgreich Western Blot Versuche durchgeführt. Jene Antikörper, welche in diesen Versuchen die gesetzten Anforderungen erfüllten, wurden für das Ermitteln der kleinsten nachweisbaren Konzentration verwendet. Über das Optimieren der Versuchsbedingungen konnte unter Verwendung von Tween in der Waschlösung sowohl auf Glas als auch auf Kunststoff die Hintergrundfluoreszenz reduziert und somit eine Steigerung des Signal/Hintergrundverhältnisses erreicht werden. In den Versuchen zu Ermittlung der Bestimmungsgrenze wurde für das humane Choriongonadotropin (hCG-i) eine Konzentration von 10 mU/ml, für dessen beta-Untereinheit (hCG-beta) eine Konzentration von 3,6 mU/ml und für das luteinisierende Hormon (LH) eine Konzentration von 10 mU/ml bestimmt. Den ermittelten Wert im Serum für das hCG-i entspricht dem von der Welt-Anti-Dopin-Agentur (WADA) geforderten Wert in Urin von 5 mU/ml. Neben der Ermittlung von Bestimmungsgrenzen wurden diese hinsichtlich auftretender Matrixeffekte in Serum und Blut gemessen. Wie aus den Versuchen zur Ermittlung von Kreuzreaktivitäten auf dem Mikroarray zu entnehmen ist, lassen sich das LH, das hCG-i und hCG-β ebenfalls in Serum und Blut messen. Die Durchführung einer Performance-Analyse über einem Einfach-Blind-Ansatz mit 130 Serum Proben, wurde ebenfalls über dieses System realisiert. Die ausgewerteten Proben wurden anschließend über eine Grenzwertoptimierungskurve analysiert und die diagnostische Spezifität ermittelt. Für die Messungen des LH konnte eine Sensitivität und Spezifität von 100% erreicht werden. Demnach wurden alle negativen und positiven Proben eindeutig interpretiert. Für das hCG-β konnte ebenfalls eine Spezifität von 100% und eine Sensitivität von 97% erreicht werden. Die hCG-i Proben wurden mit einer Spezifität von 100% und eine Sensitivität von 97,5% gemessen. Um den Nachweis zu erbringen, dass dieser Versuchsaufbau über mehrere Wochen stabile Signale bei Vermessen von identischen Proben liefert, wurde ein über zwölf Wochen angesetzter Stabilitätstest für alle Parameter erfolgreich in Serum und Blut durchgeführt. Zusammenfassend konnte in dieser Arbeit erfolgreich eine Mehrkomponentenanalyse als Multiplex Ansatz auf einem Mikroarray entwickelt werden. Die Durchführung der Performance-Analyse und des Stabilitätstests zeigen bereits die mögliche Einsatzfähigkeit dieses Tests im Kontext einer Dopinganalyse.
Die aktuelle COVID-19-Pandemie zeigt deutlich, wie sich Infektionskrankheiten weltweit verbreiten können. Neben Viruserkrankungen breiten sich auch multiresistente bakterielle Erreger weltweit aus. Dementsprechend besteht ein hoher Bedarf, durch frühzeitige Erkennung Erkrankte zu finden und Infektionswege zu unterbrechen.
Herkömmliche kulturelle Verfahren benötigen minimalinvasive bzw. invasive Proben und dauern für Screeningmaßnahmen zu lange. Deshalb werden schnelle, nichtinvasive Verfahren benötigt.
Im klassischen Griechenland verließen sich die Ärzte unter anderem auf ihren Geruchssinn, um Infektionen und andere Krankheiten zu differenzieren. Diese charakteristischen Gerüche sind flüchtige organische Substanzen (VOC), die im Rahmen des Metabolismus eines Organismus entstehen. Tiere, die einen besseren Geruchssinn haben, werden trainiert, bestimmte Krankheitserreger am Geruch zu unterscheiden. Allerdings ist der Einsatz von Tieren im klinischen Alltag nicht praktikabel. Es bietet sich an, auf technischem Weg diese VOCs zu analysieren.
Ein technisches Verfahren, diese VOCs zu unterscheiden, ist die Ionenmobilitätsspektrometrie gekoppelt mit einer multikapillaren Gaschromatographiesäule (MCC-IMS). Hier zeigte sich, dass es sich bei dem Verfahren um eine schnelle, sensitive und verlässliche Methode handelt.
Es ist bekannt, dass verschiedene Bakterien aufgrund des Metabolismus unterschiedliche VOCs und damit eigene spezifische Gerüche produzieren. Im ersten Schritt dieser Arbeit konnte gezeigt werden, dass die verschiedenen Bakterien in-vitro nach einer kurzen Inkubationszeitzeit von 90 Minuten anhand der VOCs differenziert werden können. Hier konnte analog zur Diagnose in biochemischen Testreihen eine hierarchische Klassifikation der Bakterien erfolgen.
Im Gegensatz zu Bakterien haben Viren keinen eigenen Stoffwechsel. Ob virusinfizierte Zellen andere VOCs als nicht-infizierte Zellen freisetzen, wurde an Zellkulturen überprüft. Hier konnte gezeigt werden, dass sich die Fingerprints der VOCs in Zellkulturen infizierter Zellen mit Respiratorischen Synzytial-Viren (RSV) von nicht-infizierten Zellen unterscheiden.
Virusinfektionen im intakten Organismus unterscheiden sich von den Zellkulturen dadurch, dass hier neben Veränderungen im Zellstoffwechsel auch durch Abwehrmechanismen VOCs freigesetzt werden können.
Zur Überprüfung, inwiefern sich Infektionen im intakten Organismus ebenfalls anhand VOCs unterscheiden lassen, wurde bei Patienten mit und ohne Nachweis einer Influenza A Infektion als auch bei Patienten mit Verdacht auf SARS-CoV-2 (Schweres-akutes-Atemwegssyndrom-Coronavirus Typ 2) Infektion die Atemluft untersucht. Sowohl Influenza-infizierte als auch SARS-CoV-2 infizierte Patienten konnten untereinander und von nicht-infizierten Patienten mittels MCC-IMS Analyse der Atemluft unterschieden werden.
Zusammenfassend erbringt die MCC-IMS ermutigende Resultate in der schnellen nichtinvasiven Erkennung von Infektionen sowohl in vitro als auch in vivo.
Im Rahmen der Untersuchung zur Entwicklung der pelagischen Gemeinschaft des ehemals sauren Tagebauseenkomplexes Goitsche (pH~3) während dessen Flutung und Neutralisierung wurden Wechselwirkungen zwischen der Zusammensetzung von Organismengemeinschaften und der Variabilität des abiotischen Umfeldes untersucht.Im Mittelpunkt standen zwei von ihrer Kausalität her unterschiedliche Aspekte: • Der erste Aspekt betraf die Reifung von Ökosystemen: War der Reifungsprozess von pelagischen Gemeinschaften anhand der von Odum (1969) formulierten Kriterien zur Energetik der Gemeinschaft, zu den Nährstoffkreisläufen sowie zu strukturellen Merkmalen auf Ökosystem- und Individuenebene zu erfassen? Führten der physiologische Stress durch den niedrigen pH und physikalische Störungen der Schichtung durch das einströmende Flutungswasser zu einer Umkehr des Reifungsprozesses? Auf welchen Organisationsebenen der Lebensgemeinschaften waren die Auswirkungen dieser Stressoren erkennbar? • Der zweite Aspekt behandelte die Entwicklung der Artenzahl, die Gleichverteilung der Dominanz von Arten (Eveness) und die Diversität von Planktongemeinschaften entlang des Produktivitätsgradienten. Speziell wurde untersucht, ob die Artenzahl und die Diversität eine monoton positive oder eine unimodale Funktion der Produktivität waren und ob die Eveness eine monoton abnehmende Funktion der Produktivität war. Zur besseren Vorhersagbarkeit der Entwicklung dieser Indizes wurden in einem nächsten Schritt zusätzliche biotische und abiotische Faktoren (z.B. Konsumenteneffekte, physikalische Störung, Immigration) berücksichtigt. Zuletzt wurde die Hypothese getestet, dass unter dem Einfluss von extremem physiologischem Stress keine Abhängigkeit zwischen den betrachteten Indizes und der Produktivität von Ökosystemen besteht. Die Untersuchungen der vorliegenden Arbeit führten zu folgenden Ergebnissen und Schlussfolgerungen: 1) Der Reifungsprozess der Planktongemeinschaft war unter neutralen Bedingungen nicht eindeutig an einzelnen Kriterien festzumachen. Vielmehr schienen idiosynkratische Effekte einzelner Arten auf die Zusammensetzung und Funktion der Organismengemeinschaft von Bedeutung. Coenobiumbildende Kieselalgen sowie größere Cladoceren und Copepoden dominierten sehr rasch die Planktongemeinschaft und vermittelten den Eindruck eines reifen Ökosystems fast unmittelbar nach der Neutralisierung des Tagebausees. 2) Der Einfluss von physiologischem Säurestress und physikalischer Störung der Schichtung durch das eintretende Flutungswasser war gegenüber einem neutralen, ungestörten Teilbecken des Tagebausees (Referenzzustand) eindeutig zu erkennen. Die isolierte Betrachtung der Wirkung der Stressoren lieferte hinsichtlich fast aller Kriterien Anzeichen einer Verjüngung des Systems sensu Odum (1969, 1985). 3) Im betrachteten Ökosystem existierte eine Hierarchie innerhalb der Stressoren. Der Einfluss des Säurestresses dominierte gegenüber dem Einfluss der physikalischen Störung, wahrscheinlich indem er die Reaktionsmöglichkeiten der Planktongemeinschaft einschränkte. 4) Für Primärproduzenten war die Artenzahl eine monoton positive Funktion der realisierten Biomasse (einem Surrogatparameter für die Produktivität des Systems). Die Eveness war eine monoton negative Funktion der Produktivität. Die beobachtete unimodale Beziehung zwischen der Diversität und der Produktivität der Primärproduzenten muss als eine Folge der mathematischen Formulierung dieser Indizes betrachtet werden. 5) Die Ergebnisse multivariater Modelle zur Vorhersage der Artenzahl und der Eveness der Primärproduzenten in Abhängigkeit zusätzlicher erfassbarer biotischer und abiotischer Faktoren ermöglichten eine differenziertere Betrachtung der Ergebnisse: • Im Tagebausee Goitsche war die Eveness hauptsächlich von dichteabhängigen Prozessen gesteuert (negative Abhängigkeit zum Quadrat der Biomassen und zu den Lichtverhältnissen). • Die Entwicklung der Artenzahl war neben dem primären Einfluss der zunehmenden Biomasse auch durch qualitative und quantitative Aspekte der Konsumentengemeinschaft (Diversität und Biomasse des Zooplanktons) beeinflusst. Der Einfluss einer erhöhten Immigration auf die Artenzahl wurde nur zu Beginn der Flutung des Tagebausees beobachtet. 6) Auf Ebene der Konsumenten war die einzige eindeutig feststellbare Abhängigkeit ein Anstieg der Artenzahl mit steigender Biomasse. Das Fehlen von weiteren Beziehungen zwischen Diversitätsindizes und dem Produktivitätsgradienten wird darauf zurückgeführt, dass auf den unteren trophischen Ebenen der Primärproduzenten Ressourceneffekte (Bottom-Up) stärker ausgeprägt sind, wohingegen auf höheren trophischen Ebenen Konsumenteneffekte (Top-Down) dominieren. 7) In durch physiologischen Stress beeinflussten Systemen bestand keine Abhängigkeit zwischen den Diversitätsindizes (Artenzahl, Eveness und Diversität) und der Produktivität.
Das Professionswissen einer Lehrkraft gilt als Voraussetzung für erfolgreichen Unterricht. Trotz großer Unterschiede der Professionswissensmodelle ist die Forschung sich aus theoretischer Sicht weitestgehend einig darüber, dass das fachliche und fachdidaktische Wissen wichtige Bestandteile des Professionswissens und damit bedeutsam für Unterrichtserfolg sind. Zurecht gibt es daher die Forderung, dass Lehrkräfte unter anderem ein ausgeprägtes fachliches Wissen benötigen, das sie in den verschiedensten Situationen ihres Berufslebens, wie z.B. dem Erklären von Konzepten und dem Planen von Unterricht einsetzen. Die Forschung untersucht aus diesem Grund schon seit über 30 Jahren die Bedeutung des Fachwissens einer Lehrkraft. Dabei werden die Betrachtungen des Fachwissens immer differenzierter. So hat sich in vielen Forschungsansätzen der Physikdidaktik eine Dreiteilung des Fachwissens in schulisches Wissen, vertieftes Schulwissen und universitäres Wissen durchgesetzt. Während das Schulwissen als jenes Wissen verstanden wird, das in der Schule gelehrt und gelernt wird, beschreibt die Facette des universitären Wissens die stark akademisch geprägte Wissensform, die zukünftige Physiklehrkräfte in den Fachveranstaltungen an der Universität erwerben sollen. Das vertiefte Schulwissen ist hingegen eine spezielle Form des fachlichen Wissens, die aus Forschungssicht als besonders wichtig für Lehrkräfte angenommen wird. Zusammengenommen sollen angehende Physiklehrkräfte alle genannten Facetten des Fachwissens, also Schulwissen, vertieftes Schulwissen und universitäres Wissen, während des Lehramtsstudiums Physik erwerben. Neben dem fachlichen Wissen benötigt eine Lehrkraft als wichtigen Bestandteil des Professionswissens auch noch fachdidaktisches Wissen, welches ebenfalls während des Studiums erworben werden soll. Gleichzeitig geht man in der Forschung davon aus, dass für die Entwicklung des fachdidaktischen Wissens fachliches Wissen eine Grundvoraussetzung ist. Es ist jedoch empirisch nahezu ungeklärt, wie sich das beschriebene Fachwissen und das fachdidaktische Wissen im Verlauf des Lehramtsstudiums Physik entwickeln oder wie sich diese Wissensformen gegenseitig beeinflussen. Darüber hinaus ist unklar, welche Herausforderungen sich aus der Leistungsheterogenität der Studienanfänger:innen ergeben. Bisherige Untersuchungen aus der Studienerfolgsforschung legen nahe, dass besonders das Vorwissen prognostisch für Studienerfolg ist. Die vorliegende Arbeit untersucht daher zunächst, wie sich das fachliche Wissen (Schulwissen, vertieftes Schulwissen, universitäres Wissen) von Lehrkräften im Verlauf des Bachelor- und Masterstudiums entwickelt. In einem nächsten Schritt wurde untersucht, wie sich Studierende mit einem geringen, mittleren bzw. hohen Fachwissen zum Beginn des Studiums über das Bachelorstudium entwickeln. Darüber hinaus wurde die Entwicklung des fachdidaktischen Wissens betrachtet und Zusammenhänge zum fachlichen Wissen in den Blick genommen. Durchgeführt wurde die vorliegende Studie im Längsschnitt im Verlauf von drei Jahren an 11 Hochschulen mit 145 Bachelorstudierenden und 73 Masterstudierenden. Die Bachelorstudierenden haben jährlich an einer Testung des fachlichen und fachdidaktischen Wissens teilgenommen. Die Masterstudierenden nahmen jeweils vor und nach einem einsemestrigen Schulpraktikum an den Erhebungen teil. Zur Testung wurde jeweils ein schriftliches Testinstrument verwendet. Das weiterentwickelte Fachwissensinstrument wurde zusätzlich ausführlichen Validierungsuntersuchungen unterzogen. Die Ergebnisse zeigen, dass sich das Schulwissen, das vertiefte Schulwissen und das universitäre Wissen sowohl im Bachelor- als auch Masterstudium signifikant weiterentwickeln. Auch für das fachdidaktische Wissen können signifikante Zuwächse über das Bachelor- und Masterstudium berichtet werden. Interessant ist dabei, dass eine starke Korrelation zwischen dem fachlichen Wissen zu Beginn des Studiums und dem Zuwachs des fachdidaktischen Wissens vom ersten zum dritten Semester erkennbar ist. Es liegen also erste Hinweise dafür vor, dass – wie in der Forschung vermutet – das fachliche Wissen eine Voraussetzung für die Entwicklung von fachdidaktischem Wissen ist. Die angesprochene Leistungsheterogenität zu Beginn des Studiums stellt dabei jedoch ein Hindernis für die Entwicklung des fachlichen Wissens dar. So holt die Gruppe der zu Beginn schwächeren Studierenden nicht einmal das Mittelfeld im Lauf des Studiums ein. Gleichzeitig ist zu beobachten, dass die Gruppe der stärksten Studierenden im Vergleich zu den übrigen Studierenden vom ersten zum dritten Semester überproportional dazulernt. Insgesamt bleibt das heterogene Leistungsbild im Verlauf des Studiums erhalten, was die Forderung nach Unterstützung für leistungsschwächere Studierende gerade zu Beginn des Studiums betont. Wie sich innerhalb der vorliegenden Untersuchung zeigte, könnte insbesondere ein ausgeprägtes mathematisches Vorwissen hilfreich sein, um fachliches Wissen zu entwickeln. Die bisher angebotenen Vorkurse scheinen dem Bedarf nicht gerecht zu werden und so könnte es lohnenswert sein, zusätzliche Veranstaltungen auch in Bezug auf fachliches Wissen in der gesamten Studieneingangsphase anzubieten. Forschungsergebnisse deuten darauf hin, dass insbesondere schwächere Studierende von einer klaren Strukturierung innerhalb dieser zusätzlichen Kurse profitieren könnten. Auch ein allgemeines Vorstudium könnte helfen, die Vorkenntnisse anzugleichen.
Magnetische Eisenoxidnanopartikel werden bereits seit geraumer Zeit erfolgreich als MRT-Kontrastmittel in der klinischen Bildgebung eingesetzt. Durch Optimierung der magnetischen Eigenschaften der Nanopartikel kann die Aussagekraft von MR-Aufnahmen verbessert und somit der diagnostische Wert einer MR-Anwendung weiter erhöht werden. Neben der Verbesserung bestehender Verfahren wird die bildgebende Diagnostik ebenso durch die Entwicklung neuer Verfahren, wie dem Magnetic Particle Imaging, vorangetrieben. Da hierbei das Messsignal von den magnetischen Nanopartikeln selbst erzeugt wird, birgt das MPI einen enormen Vorteil hinsichtlich der Sensitivität bei gleichzeitig hoher zeitlicher und räumlicher Auflösung. Da es aktuell jedoch keinen kommerziell vertriebenen in vivo-tauglichen MPI-Tracer gibt, besteht ein dringender Bedarf an geeigneten innovativen Tracermaterialien. Daraus resultierte die Motivation dieser Arbeit biokompatible und superparamagnetische Eisenoxidnanopartikel für den Einsatz als in vivo-Diagnostikum insbesondere im Magnetic Particle Imaging zu entwickeln. Auch wenn der Fokus auf der Tracerentwicklung für das MPI lag, wurde ebenso die MR-Performance bewertet, da geeignete Partikel somit alternativ oder zusätzlich als MR-Kontrastmittel mit verbesserten Kontrasteigenschaften eingesetzt werden könnten.
Die Synthese der Eisenoxidnanopartikel erfolgte über die partielle Oxidation von gefälltem Eisen(II)-hydroxid und Green Rust sowie eine diffusionskontrollierte Kopräzipitation in einem Hydrogel.
Mit der partiellen Oxidation von Eisen(II)-hydroxid und Green Rust konnten erfolgreich biokompatible und über lange Zeit stabile Eisenoxidnanopartikel synthetisiert werden. Zudem wurden geeignete Methoden zur Formulierung und Sterilisierung etabliert, wodurch zahlreiche Voraussetzungen für eine Anwendung als in vivo-Diagnostikum geschaffen wurden. Weiterhin ist auf Grundlage der MPS-Performance eine hervorragende Eignung dieser Partikel als MPI-Tracer zu erwarten, wodurch die Weiterentwicklung der MPI-Technologie maßgeblich vorangetrieben werden könnte. Die Bestimmung der NMR-Relaxivitäten sowie ein initialer in vivo-Versuch zeigten zudem das große Potential der formulierten Nanopartikelsuspensionen als MRT-Kontrastmittel. Die Modifizierung der Partikeloberfläche ermöglicht ferner die Herstellung zielgerichteter Nanopartikel sowie die Markierung von Zellen, wodurch das mögliche Anwendungsspektrum maßgeblich erweitert wurde.
Im zweiten Teil wurden Partikel durch eine diffusionskontrollierte Kopräzipitation im Hydrogel, wobei es sich um eine bioinspirierte Modifikation der klassischen Kopräzipitation handelt, synthetisiert, wodurch Partikel mit einer durchschnittlichen Kristallitgröße von 24 nm generiert werden konnten. Die Bestimmung der MPS- und MR-Performance elektrostatisch stabilisierter Partikel ergab vielversprechende Resultate. In Vorbereitung auf die Entwicklung eines in vivo-Diagnostikums wurden die Partikel anschließend erfolgreich sterisch stabilisiert, wodurch der kolloidale Zustand in MilliQ-Wasser über lange Zeit aufrechterhalten werden konnte. Durch Zentrifugation konnten die Partikel zudem erfolgreich in verschiedene Größenfraktionen aufgetrennt werden. Dies ermöglichte die Bestimmung der idealen Aggregatgröße dieses Partikelsystems in Bezug auf die MPS-Performance.
In dieser Arbeit wird die Entwicklung und Charakterisierung neuer „smarter“ Redoxhydrogele mit drei verschiedenen funktionellen Eigenschaften und deren erfolgreicher Einsatz zur elektrochemischen Kontaktierung von Oxidoreduktasen beschrieben. Diese neuen Redoxpolymere 1. tragen kovalent integrierte Redoxzentren umgeben von einer hydrophilen Polymermatrix, 2. reaktive Kopplungsgruppen für den Aufbau selbstassemblierter Polymerschichten auf Elektrodenoberflächen und 3. lassen sich in ihrer Redoxaktivität durch Verwendung „intelligenter“ Polymere über externe Stimuli kontrollieren. Die Redoxhydrogele wurden nach dem Vorbild eines Baukastensystems in einfachen Ein-Stufen-Synthesen synthetisiert. Dazu wurden verschiedene Redoxzentren (Ferrocen, 1,10-Phenanthrolin-5,6-dion und 4-Carboxy-2,5,7-Trinitro-9-fluorenon), reaktive Kopplungsgruppen (Epoxy-, Amino-, Thiol- oder Disulfidfunktionen) und Polymermatrices (Poly-(N-Isopropylacrylamid) (PNIPAM) und Poly(ethylenglykolmethacrylat) (PEGMA)) in unterschiedlichen Zusammensetzungen miteinander copolymerisiert. Die Polymere wurden in Form von dünnen Polymerfilmen über die wiederholenden Funktionalitäten auf Elektrodenoberflächen aufgebracht und physiko- und elektrochemisch charakterisiert. Durch die erstmals gezeigte, derartige Ankopplung der Polymere, entstehen dreidimensionale, hydrophile selbstassemblierte Polymerschichten. Die Elektronentransferwege sind kurz und der Elektronentransfer effizient. Diese Polymer-modifizierten Elektroden wurden für die Kontaktierung von zwei exemplarisch ausgewählten Oxidoreduktasen eingesetzt, die Nicotinsäureamid-adenin-dinucleotid-abhängige Glucosedehydrogenase (NAD-GDH), welche ein freibewegliches Coenzym und die Pyrrolochinolinchinon-abhängige Glucosedehydrogenase (PQQ-GDH), welche ein prosthetisches Coenzym verwenden. Die Redoxaktivitäten des PNIPAMFoxy- und PEGMA-Fc-Polymers ließen sich durch externe Stimuli in Form von Temperatur und Calciumkonzentrationen kontrollieren. Ein Modell für die Komplexierung der Calciumionen durch die PEG-Seitenketten unter Ausbildung Kronenether-ähnlicher Strukturen und der daraus resultierenden Steigerung des Elektronentransfers wurde gezeigt.
Neue Systeme für triphile, fluorkohlenstofffreie Blockcopolymere in Form von Acrylat-basierten thermoresponsiven Blockcopolymeren sowie Acrylat- bzw. Styrol-basierten Terblock-Polyelektrolyten mit unterschiedlich chaotropen Kationen des jeweiligen polyanionischen Blocks wurden entwickelt. Multikompartiment-Mizellen, mizellare Aggregate mit ultrastrukturiertem hydrophobem Mizellkern die biologischen Strukturen wie dem Humanalbumin nachempfunden sind, sollten bei der Selbstorganisation in wässriger Umgebung entstehen. Durch Verwendung apolarer und polarer Kohlenwasserstoff-Domänen anstelle von fluorophilen Fluorkohlenstoff-Domänen sollte erstmals anhand solcher triphilen Systeme nachgewiesen werden, ob diese in der Lage zur selektiven Aufnahme hydrophober Substanzen in unterschiedliche Domänen des Mizellkerns sind.
Mit Hilfe von sequentieller RAFT-Polymerisation wurden diese neuen triphilen Systeme hergestellt, die über einen permanent hydrophilen, eine permanent stark hydrophoben und einen dritten Block verfügen, der durch externe Einflüsse, speziell die Induzierung eines thermischen Coil-to-globule-Übergangs bzw. die Zugabe von organischen, hydrophoben Gegenionen von einem wasserlöslichen in einen polar-hydrophoben Block umgewandelt werden kann. Als RAFT-Agens wurde 4-(Trimethylsilyl)benzyl(3-(trimethylsilyl)-propyl)-trithiocarbonat mit zwei unterschiedlichen TMS-Endgruppen verwendet, das kontrollierte Reaktions-bedingungen sowie die molekulare Charakterisierung der komplexen Copolymere ermöglichte.
Die beiden Grundtypen der linearen ternären Blockcopolymere wurden jeweils in zwei 2 Modell-Systeme, die geringfügig in ihren chemischen Eigenschaften sowie in dem Blocklängenverhältnis von hydrophilen und hydrophoben Polymersegmenten variierten, realisiert und unterschiedliche Permutation der Blöcke aufwiesen.
Als ersten Polymertyp wurden amphiphile thermoresponsive Blockcopolymere verwendet. Modell-System 1 bestand aus dem permanent hydrophoben Block Poly(1,3-Bis(butylthio)-prop-2-yl-acrylat), permanent hydrophilen Block Poly(Oligo(ethylenglykol)monomethyletheracrylat) und den thermoresponsiven Block Poly(N,N‘-Diethylacrylamid), dessen Homopolymer eine LCST-Phasenübergang (LCST, engl.: lower critical solution temperature) bei ca. 36°C aufweist. Das Modell-System 2 bestand aus dem permanent hydrophilen Block Poly(2-(Methylsulfinyl)ethylacrylat), dem permanent hydrophoben Block Poly(2-Ethylhexylacrylat) und wiederum Poly(N,N‘-Diethylacrylamid). Im ternären Blockcopolymer erhöhte sich, je nach Blocksequenz und relativen Blocklängen, der LCST-Übergang auf 50 – 65°C. Bei der Untersuchung der Selbstorganisation für die Polymer-Systeme dieses Typs wurde die Temperatur variiert, um verschieden mizellare Überstrukturen in wässriger Umgebung zu erzeugen bzw. oberhalb des LCST-Übergangs Multikompartiment-Mizellen nachzuweisen. Die Unterschiede in der Hydrophilie bzw. den sterischen Ansprüche der gewählten hydrophilen Blöcke sowie die Variation der jeweiligen Blocksequenzen ermöglichte darüber hinaus die Bildung verschiedenster Morphologien mizellarer Aggregate.
Der zweite Typ basierte auf ein Terblock-Polyelektrolyt-System mit Polyacrylaten bzw. Polystyrolen als Polymerrückgrat. Polymere ionische Flüssigkeiten wurden als Vorlage der Entwicklung zweier Modell-Systeme genommen. Eines der beiden Systeme bestand aus dem permanent hydrophilen Block Poly(Oligo(ethylenglykol)monomethyletheracrylat, dem permanent hydrophoben Block Poly(2-Ethylhexylacrylat) sowie dem Polyanion-Block Poly(3-Sulfopropylacrylat). Die Hydrophobie des Polyanion-Blocks variierte durch Verwendung großer organischer Gegenionen, nämlich Tetrabutylammonium, Tetraphenylphosphonium und Tetraphenylstibonium.
Analog wurde in einem weiteren System aus dem permanent hydrophilen Block Poly(4-Vinylbenzyltetrakis(ethylenoxy)methylether), dem permanent hydrophoben Block Poly(para-Methylstyrol) und Poly(4-Styrolsulfonat) mit den entsprechenden Gegenionen gebildet. Aufgrund unterschiedlicher Kettensteifigkeit in beiden Modell-Systemen sollte es bei der Selbstorganisation der mizellarer Aggregate zu unterschiedlichen Überstrukturen kommen.
Mittels DSC-Messungen konnte nachgewiesen werden, dass für alle Modell-Systeme die Blöcke in Volumen-Phase miteinander inkompatibel waren, was eine Voraussetzung für Multikompartimentierung von mizellaren Aggregaten ist. Die Größe mizellarer Aggregate sowie der Einfluss externer Einflüsse wie der Veränderung der Temperatur bzw. der Hydrophobie und Größe von Gegenionen auf den hydrodynamischen Durchmesser mittels DLS-Untersuchungen wurden für alle Modell-Systeme untersucht. Die Ergebnisse zu den thermoresponsiven ternären Blockcopolymeren belegten , dass sich oberhalb der Phasenübergangstemperatur des thermoresponsiven Blocks die Struktur der mizellaren Aggregate änderte, indem der p(DEAm)-Block scheinbar kollabierte und so zusammen mit den permanent hydrophoben Block den jeweiligen Mizellkern bildete. Nach gewisser Equilibrierungszeit konnten bei Raumtemperatur dir ursprünglichen mizellaren Strukturen regeneriert werden. Hingegen konnte für die Terblock-Polyelektrolyt-Systeme bei Verwendung der unterschiedlich hydrophoben Gegenionen kein signifikanter Unterschied in der Größe der mizellaren Aggregate beobachtet werden.
Zur Abbildung der mizellaren Aggregate mittels kryogene Transmissionselektronenmikroskopie (cryo-TEM) der mizellaren Aggregate war mit Poly(1,3-Bis(butylthio)-prop-2-yl-acrylat) ein Modell-System so konzipiert, dass ein erhöhter Elektronendichtekontrast durch Schwefel-Atome die Visualisierung ultrastrukturierter hydrophober Mizellkerne ermöglichte. Dieser Effekt sollte in den Terblock-Polyelektrolyt-Systemen auch durch die Gegenionen Tetraphenylphosphonium und Tetraphenylstibonium nachgestellt werden. Während bei den thermoresponsiven Systemen auch oberhalb des Phasenübergangs kein Hinweis auf Ultrastrukturierung beobachtet wurde, waren für die Polyelektrolyt-Systeme, insbesondere im Fall von Tetraphenylstibonium als Gegenion Überstrukturen zu erkennen. Der Nachweis der Bildung von Multikompartiment-Mizellen war für beide Polymertypen mit dieser abbildenden Methode nicht möglich. Die Unterschiede in der Elektronendichte einzelner Blöcke müsste möglicherweise weiter erhöht werden um Aussagen diesbezüglich zu treffen.
Die Untersuchung von ortsspezifischen Solubilisierungsexperimenten mit solvatochromen Fluoreszenzfarbstoffen mittels „steady-state“-Fluoreszenzspektroskopie durch Vergleich der Solubilisierungsorte der Terblockcopolymere bzw. –Polyelektrolyte mit den jeweiligen Solubilisierungsorten von Homopolymer- und Diblock-Vorstufen sollten den qualitativen Nachweis der Multikompartimentierung erbringen. Aufgrund der geringen Mengen an Farbstoff, die für die Solubilisierungsexperimente eingesetzt wurden zeigten DLS-Untersuchungen keine störenden Effekte der Sonden auf die Größe der mizellaren Aggregate. Jedoch erschwerten Quench-Effekte im Falle der Polyelektrolyt Modell-Systeme eine klare Interpretation der Daten. Im Falle der Modell-Systeme der thermoresponsiven Blockcopolymere waren dagegen deutliche solvatochrome Effekte zwischen der Solubilisierung in den mizellaren Aggregaten unterhalb und oberhalb des Phasenübergangs zu erkennen. Dies könnte ein Hinweis auf Multikompartimentierung oberhalb des LCST-Übergangs sein. Ohne die Informationen einer Strukturanalyse wie z.B. der Röntgen- oder Neutronenkleinwinkelstreuung (SAXS oder SANS), kann nicht abschließend geklärt werden, ob die Solubilisierung in mizellaren hydrophoben Domänen des kollabierten Poly(N,N‘-Diethylacrylamid) erfolgt oder in einer Mischform von mizellaren Aggregaten mit gemittelter Polarität.
Die schulische Berufswahlvorbereitung versäumt es, Jugendliche auf die Wahl des Ausbildungsbetriebs vorzubereiten. Sie thematisiert nur die Berufswahl, obwohl die Entscheidung für eine betriebliche Ausbildung immer auch die Entscheidung für einen Ausbildungsbetrieb voraussetzt. Für die Ausbildungszufriedenheit und den -erfolg ist diese Betriebswahl zentral. Angesichts des Mismatchs am Ausbildungsmarkt ist das Thema hochrelevant.
Aus welchen Gründen entscheiden sich Jugendliche für einen Ausbildungsbetrieb? Diese Frage untersucht die vorliegende Arbeit aus prospektiver Sicht in narrativen Einzelinterviews mit 52 Schülerinnen und Schülern der 9. und 10. Klassenstufen verschiedener Schultypen und aus retrospektiver Sicht in vier multipel eingebetteten Mehrfallstudien mit 17 Auszubildenden aus vier Betrieben und in acht Berufen – jeweils in Brandenburg und Berlin. Theoretisch nähert sich diese Arbeit dem Thema über psychologische, soziologische und wirtschaftswissenschaftliche sowie interdisziplinäre Berufswahltheorien an, dem operativen Modell der Betriebswahl sowie dem hier neu entwickelten Modell der Ausbildungswahl als Entscheidungsprozess, das die beiden Wahlkomponenten Betrieb und Beruf vereint.
Drei zentrale Erkenntnisse kennzeichnen das Ergebnis der vorliegenden Arbeit:
1. Jugendliche beschäftigen sich mit der Wahl des Ausbildungsbetriebs und berücksichtigen vor allem emotionale Gründe. Diese variieren von Person zu Person.
2. Wichtigste Entscheidungsgründe für den Ausbildungsbetrieb sind der persönliche Eindruck, die inhaltliche Solidität, der Ort, das Betriebsklima, Kontakte ins Unternehmen, Perspektiven und die Bezahlung.
3. Jugendliche mit Mittlerem Schulabschluss achten besonders auf die Perspektiven nach Ausbildungsende.
Die wenigen anderen Studien zur Entscheidung für den Ausbildungsbetrieb gehen auf den am häufigsten genannten Entscheidungsgrund persönlicher Eindruck nicht ein. Auch kommen sie zu uneinheitlichen Schlüssen, für welche Personengruppe der Entscheidungsgrund Perspektiven besonders relevant ist. Es bedarf zusätzlicher Studien, um die Ergebnisse zu überprüfen und ihre statistische Verteilung in größeren Bevölkerungsgruppen zu untersuchen sowie eine belastbare, ganzheitliche Theorie zur Ausbildungswahl zu entwickeln.
Öffentlich Private Partnerschaften (ÖPPs) haben in den letzten zehn bis fünfzehn Jahren in Deutschland einen beachtlichen Stellenwert erreicht. Auch zukünftig ist aufgrund der Finanzkrise der Kommunen mit einem weiteren Bedeutungszuwachs zu rechnen. Damit ÖPPs die von der öffentlichen Hand gewünschten Vorteile mit sich bringen können, wie zum Beispiel die Entlastung des öffentlichen Haushalts oder Effizienzsteigerungen, sollten sie im Vorfeld und im Tagesgeschäft aktiv und umsichtig begleitet werden. In diesem Zusammenhang ergibt sich der Ansatzpunkt für die Themenstellung der Dissertation sowie angesichts der Erkenntnis, dass bisher noch keine umfassend fundierten und systematischen Untersuchungen vorliegen, welche die bestehenden Praxiserfahrungen mit ÖPPs mit anwendbaren Theorien in Verbindung setzen und Entscheidungshilfen für öffentliche Akteure ableiten. Aufgrund der verschiedenen möglichen Ausprägungsformen wurde eine Eingrenzung des Themas auf institutionelle ÖPPs auf kommunaler Ebene vorgenommen. Die Untersuchung beginnt mit der Auseinandersetzung der Grundlagen zu ÖPPs, um ein generelles Verständnis für dieses Themengebiet zu schaffen. Nachdem der Begriff erläutert und Merkmale von ÖPPs herausgearbeitet wurden, erfolgt eine Abgrenzung zwischen vertraglichen und institutionellen ÖPPs. Daraufhin werden mögliche Motive der öffentlichen und privaten Seite beim Eingehen einer solchen Partnerschaft aufgeführt sowie erste mögliche Chancen und Risiken skizziert. Im Anschluss erfolgt mit Hilfe der wissenschaftlichen Theorie des Neuen Institutionalismus eine vertiefende Analyse zu institutionellen ÖPPs. Dabei schließt sich die Dissertation an die von Mayntz und Scharpf vorgenommene Einteilung in einen ökonomischen, (organisations-) soziologischen und politikwissenschaftlichen Neo-Institutionalismus an. Der Neue Ökonomische Institutionalismus wurde anhand der drei Teillehren Transaktionskostentheorie, Prinzipal-Agent-Theorie und Theorie der Verfügungsrechte untersucht. Zunächst werden theoretische Erkenntnisse zu den einzelnen Theorien herausgearbeitet und erste Schlussfolgerungen für institutionelle ÖPPs gezogen. Daraus werden nachfolgend Untersuchungskriterien in Form von Fragestellungen für den späteren Fallstudienvergleich entwickelt. Nach Abschluss des Theorieteils erfolgt eine Betrachtung institutioneller ÖPPs aus realer empirischer Sicht. Hierzu werden Fallstudien vorgestellt und an den Untersuchungskriterien, welche aus den einzelnen Theorien abgeleitet wurden, gespiegelt. Zuerst werden recherchierte Fallstudien analysiert, beginnend mit den Teilprivatisierungen der Stadtentwässerung Dresden GmbH und der Stadtwerke Görlitz AG, bei denen sich die Zusammenarbeit wohl positiv entwickelt. Als Negativbeispiel wird dann auf die Privatisierung der Wasserversorgung von Grenoble und ihre spätere Rekommunalisierung eingegangen. Im folgenden Schritt werden Fallstudien aus den realen Erfahrungen des Verfassers diskutiert. Hierbei bildet die Teilprivatisierung und anschließende Rekommunalisierung des Wasserbetriebes in Potsdam den Schwerpunkt. Ergänzt wird dies durch die Darstellung der positiven Zusammenarbeit mit dem privaten Gesellschafter bei der Energie und Wasser Potsdam GmbH. Abschließend werden die anfänglichen Probleme zwischen Kommune und Privat bei der teilprivatisierten STEP Stadtentsorgung Potsdam untersucht und aufgezeigt, wie die Partnerschaft zum Vorteil der öffentlichen Seite verändert wurde. Aus dem Vergleich von Theorie und Praxis konnten wissenschaftlich fundierte Schlussfolgerungen für institutionelle ÖPPs gezogen und Erfolgsfaktoren für das Gelingen einer solchen Kooperation abgeleitet werden. Die gewonnenen Erkenntnisse werden in Form von Thesen zusammengefasst und dienen als Basis für die Ableitung von Handlungsempfehlungen für kommunale Akteure beim Eingehen einer institutionellen ÖPP. Zu Beginn erfolgt eine Darstellung der Empfehlungen, die sich aus den Untersuchungskriterien der jeweiligen Theorien ergeben haben. Nachfolgend wird diese Betrachtung erweitert, indem näher auf die wesentlichen Phasen des Entscheidungsfindungsprozesses eingegangen und eine Untersetzung dieser Phasen mit den erarbeiteten Handlungsempfehlungen vorgenommen wird. Auf diese Weise kann den kommunalen Entscheidungsträgern eine sehr praxisnahe Hilfestellung gegeben werden. Insgesamt betrachtet, geht aus der Dissertation ein umfangreicher, fundierter und sehr praxisrelevanter Leitfaden hervor, der wichtige Anhaltspunkte für das Eingehen einer institutionellen ÖPP im kommunalen Bereich gibt. Aus der Spiegelung von Theorie und Praxis werden wertvolle Hinweise abgeleitet, wodurch insbesondere deutlich wird, an welchen Stellen sich die öffentliche Seite absichern sollte. Darüber hinaus können die kommunalen Entscheidungsträger durch die gewonnenen Erkenntnisse sensibilisiert und ihr Blick für den individuellen Fall geschärft werden. Letztendlich werden dadurch wichtige Voraussetzungen geschaffen, um ein solches Vorhaben zum Erfolg zu führen.
This thesis presents novel ideas and research findings for the Web of Data – a global data space spanning many so-called Linked Open Data sources. Linked Open Data adheres to a set of simple principles to allow easy access and reuse for data published on the Web. Linked Open Data is by now an established concept and many (mostly academic) publishers adopted the principles building a powerful web of structured knowledge available to everybody. However, so far, Linked Open Data does not yet play a significant role among common web technologies that currently facilitate a high-standard Web experience. In this work, we thoroughly discuss the state-of-the-art for Linked Open Data and highlight several shortcomings – some of them we tackle in the main part of this work. First, we propose a novel type of data source meta-information, namely the topics of a dataset. This information could be published with dataset descriptions and support a variety of use cases, such as data source exploration and selection. For the topic retrieval, we present an approach coined Annotated Pattern Percolation (APP), which we evaluate with respect to topics extracted from Wikipedia portals. Second, we contribute to entity linking research by presenting an optimization model for joint entity linking, showing its hardness, and proposing three heuristics implemented in the LINked Data Alignment (LINDA) system. Our first solution can exploit multi-core machines, whereas the second and third approach are designed to run in a distributed shared-nothing environment. We discuss and evaluate the properties of our approaches leading to recommendations which algorithm to use in a specific scenario. The distributed algorithms are among the first of their kind, i.e., approaches for joint entity linking in a distributed fashion. Also, we illustrate that we can tackle the entity linking problem on the very large scale with data comprising more than 100 millions of entity representations from very many sources. Finally, we approach a sub-problem of entity linking, namely the alignment of concepts. We again target a method that looks at the data in its entirety and does not neglect existing relations. Also, this concept alignment method shall execute very fast to serve as a preprocessing for further computations. Our approach, called Holistic Concept Matching (HCM), achieves the required speed through grouping the input by comparing so-called knowledge representations. Within the groups, we perform complex similarity computations, relation conclusions, and detect semantic contradictions. The quality of our result is again evaluated on a large and heterogeneous dataset from the real Web. In summary, this work contributes a set of techniques for enhancing the current state of the Web of Data. All approaches have been tested on large and heterogeneous real-world input.
Rapidly growing seismic and macroseismic databases and simplified access to advanced machine learning methods have in recent years opened up vast opportunities to address challenges in engineering and strong motion seismology from novel, datacentric perspectives. In this thesis, I explore the opportunities of such perspectives for the tasks of ground motion modeling and rapid earthquake impact assessment, tasks with major implications for long-term earthquake disaster mitigation.
In my first study, I utilize the rich strong motion database from the Kanto basin, Japan, and apply the U-Net artificial neural network architecture to develop a deep learning based ground motion model. The operational prototype provides statistical estimates of expected ground shaking, given descriptions of a specific earthquake source, wave propagation paths, and geophysical site conditions. The U-Net interprets ground motion data in its spatial context, potentially taking into account, for example, the geological properties in the vicinity of observation sites. Predictions of ground motion intensity are thereby calibrated to individual observation sites and earthquake locations.
The second study addresses the explicit incorporation of rupture forward directivity into ground motion modeling. Incorporation of this phenomenon, causing strong, pulse like ground shaking in the vicinity of earthquake sources, is usually associated with an intolerable increase in computational demand during probabilistic seismic hazard analysis (PSHA) calculations. I suggest an approach in which I utilize an artificial neural network to efficiently approximate the average, directivity-related adjustment to ground motion predictions for earthquake ruptures from the 2022 New Zealand National Seismic Hazard Model. The practical implementation in an actual PSHA calculation demonstrates the efficiency and operational readiness of my model. In a follow-up study, I present a proof of concept for an alternative strategy in which I target the generalizing applicability to ruptures other than those from the New Zealand National Seismic Hazard Model.
In the third study, I address the usability of pseudo-intensity reports obtained from macroseismic observations by non-expert citizens for rapid impact assessment. I demonstrate that the statistical properties of pseudo-intensity collections describing the intensity of shaking are correlated with the societal impact of earthquakes. In a second step, I develop a probabilistic model that, within minutes of an event, quantifies the probability of an earthquake to cause considerable societal impact. Under certain conditions, such a quick and preliminary method might be useful to support decision makers in their efforts to organize auxiliary measures for earthquake disaster response while results from more elaborate impact assessment frameworks are not yet available.
The application of machine learning methods to datasets that only partially reveal characteristics of Big Data, qualify the majority of results obtained in this thesis as explorative insights rather than ready-to-use solutions to real world problems. The practical usefulness of this work will be better assessed in the future by applying the approaches developed to growing and increasingly complex data sets.
Natural products and their derivatives have always been a source of drug leads. In particular, bacterial compounds have played an important role in drug development, for example in the field of antibiotics. A decrease in the discovery of novel leads from natural sources and the hope of finding new leads through the generation of large libraries of drug-like compounds by combinatorial chemistry aimed at specific molecular targets drove the pharmaceutical companies away from research on natural products. However, recent technological advances in genetics, bioinformatics and analytical chemistry have revived the interest in natural products. The ribosomally synthesized and post-translationally modified peptides (RiPPs) are a group of natural products generated by the action of post-translationally modifying enzymes on precursor peptides translated from mRNA by ribosomes. The great substrate promiscuity exhibited by many of the enzymes from RiPP biosynthetic pathways have led to the generation of hundreds of novel synthetic and semisynthetic variants, including variants carrying non-canonical amino acids (ncAAs). The microviridins are a family of RiPPs characterized by their atypical tricyclic structure composed of lactone and lactam rings, and their activity as serine protease inhibitors. The generalities of their biosynthetic pathway have already been described, however, the lack of information on details such as the protease responsible for cleaving off the leader peptide from the cyclic core peptide has impeded the fast and cheap production of novel microviridin variants. In the present work, knowledge on leader peptide activation of enzymes from other RiPP families has been extrapolated to the microviridin family, making it possible to bypass the need of a leader peptide. This feature allowed for the exploitation of the microviridin biosynthetic machinery for the production of novel variants through the establishment of an efficient one-pot in vitro platform. The relevance of this chemoenzymatic approach has been exemplified by the synthesis of novel potent serine protease inhibitors from both rationally-designed peptide libraries and bioinformatically predicted microviridins. Additionally, new structure-activity relationships (SARs) could be inferred by screening microviridin intermediates. The significance of this technique was further demonstrated by the simple incorporation of ncAAs into the microviridin scaffold.
Increasing demand for food, healthcare, and transportation arising from the growing world population is accompanied by and driving global warming challenges due to the rise of the atmospheric CO2 concentration. Industrialization for human needs has been increasingly releasing CO2 into the atmosphere for the last century or more. In recent years, the possibility of recycling CO2 to stabilize the atmospheric CO2 concentration and combat rising temperatures has gained attention. Thus, using CO2 as the feedstock to address future world demands is the ultimate solution while controlling the rapid climate change. Valorizing CO2 to produce activated and stable one-carbon feedstocks like formate and methanol and further upgrading them to industrial microbial processes to replace unsustainable feedstocks would be crucial for a future biobased circular economy. However, not all microbes can grow on formate as a feedstock, and those microbes that can grow are not well established for industrial processes.
S. cerevisiae is one of the industrially well-established microbes, and it is a significant contributor to bioprocess industries. However, it cannot grow on formate as a sole carbon and energy source. Thus, engineering S. cerevisiae to grow on formate could potentially pave the way to sustainable biomass and value-added chemicals production.
The Reductive Glycine Pathway (RGP), designed as the aerobic twin of the anaerobic Reductive Acetyl-CoA pathway, is an efficient formate and CO2 assimilation pathway. The RGP comprises of the glycine synthesis module (Mis1p, Gcv1p, Gcv2p, Gcv3p, and Lpd1p), the glycine to serine conversion module (Shmtp), the pyruvate synthesis module (Cha1p), and the energy supply module (Fdh1p). The RGP requires formate and elevated CO2 levels to operate the glycine synthesis module. In this study, I established the RGP in the yeast system using growth-coupled selection strategies to achieve formate and CO2-dependent biomass formation in aerobic conditions.
Firstly, I constructed serine biosensor strains by disrupting the native serine and glycine biosynthesis routes in the prototrophic S288c and FL100 yeast strains and insulated serine, glycine, and one-carbon metabolism from the central metabolic network. These strains cannot grow on glucose as the sole carbon source but require the supply of serine or glycine to complement the engineered auxotrophies. Using growth as a readout, I employed these strains as selection hosts to establish the RGP. Initially, to achieve this, I engineered different serine-hydroxymethyltransferases in the genome of serine biosensor strains for efficient glycine to serine conversion. Then, I implemented the glycine synthesis module of the RGP in these strains for the glycine and serine synthesis from formate and CO2. I successfully conducted Adaptive Laboratory Evolution (ALE) using these strains, which yielded a strain capable of glycine and serine biosynthesis from formate and CO2. Significant growth improvements from 0.0041 h-1 to 0.03695 h-1 were observed during ALE. To validate glycine and serine synthesis, I conducted carbon tracing experiments with 13C formate and 13CO2, confirming that more than 90% of glycine and serine biosynthesis in the evolved strains occurs via the RGP. Interestingly, labeling data also revealed that 10-15% of alanine was labelled, indicating pyruvate synthesis from the formate-derived serine using native serine deaminase (Cha1p) activity. Thus, RGP contributes to a small pyruvate pool which is converted to alanine without any selection pressure for pyruvate synthesis from formate. Hence, this data confirms the activity of all three modules of RGP even in the presence of glucose. Further, ALE in glucose limiting conditions did not improve pyruvate flux via the RGP.
Growth characterization of these strains showed that the best growth rates were achieved in formate concentrations between 25 mM to 300 mM. Optimum growth required 5% CO2, and dropped when the CO2 concentration was reduced from 5% to 2.5%.
Whole-genome sequencing of these evolved strains revealed mutations in genes that encode Gdh1p, Pet9p, and Idh1p. These enzymes might influence intracellular NADPH, ATP, and NADH levels, indicating adjustment to meet the energy demand of the RGP. I reverse-engineered the GDH1 truncation mutation on unevolved serine biosensor strains and reproduced formate dependent growth. To elucidate the effect of the GDH1 mutation on formate assimilation, I reintroduced this mutation in the S288c strain and conducted carbon-tracing experiments to compared formate assimilation between WT and ∆gdh1 mutant strains. Comparatively, enhanced formate assimilation was recorded in the ∆gdh1 mutant strain.
Although the 13C carbon tracing experiments confirmed the activity of all three modules of the RGP, the overall pyruvate flux via the RGP might be limited by the supply of reducing power. Hence, in a different approach, I overexpressed the formate dehydrogenase (Fdh1p) for energy supply and serine deaminase (Cha1p) for active pyruvate synthesis in the S288c parental strain and established growth on formate and serine without glucose in the medium. Further reengineering and evolution of this strain with a consistent energy, and formate-derived serine supply for pyruvate synthesis, is essential to achieve complete formatotrophic growth in the yeast system.
The aim of this thesis is the design, expression and purification of human cytochrome c mutants and their characterization with regard to electrochemical and structural properties as well as with respect to the reaction with the superoxide radical and the selected proteins sulfite oxidase from human and fungi bilirubin oxidase. All three interaction partners are studied here for the first time with human cyt c and with mutant forms of cyt c. A further aim is the incorporation of the different cyt c forms in two bioelectronic systems: an electrochemical superoxide biosensor with an enhanced sensitivity and a protein multilayer assembly with and without bilirubin oxidase on electrodes. The first part of the thesis is dedicated to the design, expression and characterization of the mutants. A focus is here the electrochemical characterization of the protein in solution and immobilized on electrodes. Further the reaction of these mutants with superoxide was investigated and the possible reaction mechanisms are discussed. In the second part of the work an amperometric superoxide biosensor with selected human cytochrome c mutants was constructed and the performance of the sensor electrodes was studied. The human wild-type and four of the five mutant electrodes could be applied successfully for the detection of the superoxide radical. In the third part of the thesis the reaction of horse heart cyt c, the human wild-type and seven human cyt c mutants with the two proteins sulfite oxidase and bilirubin oxidase was studied electrochemically and the influence of the mutations on the electron transfer reactions was discussed. Finally protein multilayer electrodes with different cyt form including the mutant forms G77K and N70K which exhibit different reaction rates towards BOD were investigated and BOD together with the wild-type and engineered cyt c was embedded in the multilayer assembly. The relevant electron transfer steps and the kinetic behavior of the multilayer electrodes are investigated since the functionality of electroactive multilayer assemblies with incorporated redox proteins is often limited by the electron transfer abilities of the proteins within the multilayer. The formation via the layer-by-layer technique and the kinetic behavior of the mono and bi-protein multilayer system are studied by SPR and cyclic voltammetry. In conclusion this thesis shows that protein engineering is a helpful instrument to study protein reactions as well as electron transfer mechanisms of complex bioelectronic systems (such as bi-protein multilayers). Furthermore, the possibility to design tailored recognition elements for the construction of biosensors with an improved performance is demonstrated.
Smart contracts promise to reform the legal domain by automating clerical and procedural work, and minimizing the risk of fraud and manipulation. Their core idea is to draft contract documents in a way which allows machines to process them, to grasp the operational and non-operational parts of the underlying legal agreements, and to use tamper-proof code execution alongside established judicial systems to enforce their terms. The implementation of smart contracts has been largely limited by the lack of an adequate technological foundation which does not place an undue amount of trust in any contract party or external entity. Only recently did the emergence of Decentralized Applications (DApps) change this: Stored and executed via transactions on novel distributed ledger and blockchain networks, powered by complex integrity and consensus protocols, DApps grant secure computation and immutable data storage while at the same time eliminating virtually all assumptions of trust.
However, research on how to effectively capture, deploy, and most of all enforce smart contracts with DApps in mind is still in its infancy. Starting from the initial expression of a smart contract's intent and logic, to the operation of concrete instances in practical environments, to the limits of automatic enforcement---many challenges remain to be solved before a widespread use and acceptance of smart contracts can be achieved.
This thesis proposes a model-driven smart contract management approach to tackle some of these issues. A metamodel and semantics of smart contracts are presented, containing concepts such as legal relations, autonomous and non-autonomous actions, and their interplay. Guided by the metamodel, the notion and a system architecture of a Smart Contract Management System (SCMS) is introduced, which facilitates smart contracts in all phases of their lifecycle. Relying on DApps in heterogeneous multi-chain environments, the SCMS approach is evaluated by a proof-of-concept implementation showing both its feasibility and its limitations.
Further, two specific enforceability issues are explored in detail: The performance of fully autonomous tamper-proof behavior with external off-chain dependencies and the evaluation of temporal constraints within DApps, both of which are essential for smart contracts but challenging to support in the restricted transaction-driven and closed environment of blockchain networks. Various strategies of implementing or emulating these capabilities, which are ultimately applicable to all kinds of DApp projects independent of smart contracts, are presented and evaluated.
Virtualized cloud data centers provide on-demand resources, enable agile resource provisioning, and host heterogeneous applications with different resource requirements. These data centers consume enormous amounts of energy, increasing operational expenses, inducing high thermal inside data centers, and raising carbon dioxide emissions. The increase in energy consumption can result from ineffective resource management that causes inefficient resource utilization. This dissertation presents detailed models and novel techniques and algorithms for virtual resource management in cloud data centers. The proposed techniques take into account Service Level Agreements (SLAs) and workload heterogeneity in terms of memory access demand and communication patterns of web applications and High Performance Computing (HPC) applications. To evaluate our proposed techniques, we use simulation and real workload traces of web applications and HPC applications and compare our techniques against the other recently proposed techniques using several performance metrics. The major contributions of this dissertation are the following: proactive resource provisioning technique based on robust optimization to increase the hosts' availability for hosting new VMs while minimizing the idle energy consumption. Additionally, this technique mitigates undesirable changes in the power state of the hosts by which the hosts' reliability can be enhanced in avoiding failure during a power state change. The proposed technique exploits the range-based prediction algorithm for implementing robust optimization, taking into consideration the uncertainty of demand. An adaptive range-based prediction for predicting workload with high fluctuations in the short-term. The range prediction is implemented in two ways: standard deviation and median absolute deviation. The range is changed based on an adaptive confidence window to cope with the workload fluctuations. A robust VM consolidation for efficient energy and performance management to achieve equilibrium between energy and performance trade-offs. Our technique reduces the number of VM migrations compared to recently proposed techniques. This also contributes to a reduction in energy consumption by the network infrastructure. Additionally, our technique reduces SLA violations and the number of power state changes. A generic model for the network of a data center to simulate the communication delay and its impact on VM performance, as well as network energy consumption. In addition, a generic model for a memory-bus of a server, including latency and energy consumption models for different memory frequencies. This allows simulating the memory delay and its influence on VM performance, as well as memory energy consumption. Communication-aware and energy-efficient consolidation for parallel applications to enable the dynamic discovery of communication patterns and reschedule VMs using migration based on the determined communication patterns. A novel dynamic pattern discovery technique is implemented, based on signal processing of network utilization of VMs instead of using the information from the hosts' virtual switches or initiation from VMs. The result shows that our proposed approach reduces the network's average utilization, achieves energy savings due to reducing the number of active switches, and provides better VM performance compared to CPU-based placement. Memory-aware VM consolidation for independent VMs, which exploits the diversity of VMs' memory access to balance memory-bus utilization of hosts. The proposed technique, Memory-bus Load Balancing (MLB), reactively redistributes VMs according to their utilization of a memory-bus using VM migration to improve the performance of the overall system. Furthermore, Dynamic Voltage and Frequency Scaling (DVFS) of the memory and the proposed MLB technique are combined to achieve better energy savings.