TY - THES A1 - Abouelmaati, Sherif Abdelfattah Abdelaziz T1 - Intellektuellen-Rolle in Günter Grass Werken T1 - The role of intellectuals in Günter Grass works BT - „Die Plebejer proben den Aufstand“(1966), „Örtlich betäubt“(1969), „Aus dem Tagebuch einer Schnecke“(1972), und „Ein weites Feld“(1995) BT - „The plebeians rehearse the uprising“(1966), „locally dazes“ 1969), „from the diary of a snail“(1972) and „a wide field“( 1995) N2 - Die vorliegende Arbeit trägt den Titel: Intellektuellen-Rolle in Günter Grass Werken : „Die Plebejer proben den Aufstand“(1966), „Örtlich betäubt“(1969), „Aus dem Tagebuch einer Schnecke“(1972), und „Ein weites Feld“(1995). Das erste Kapitel befasst sich insgesamt mit drei Haupttiteln II. Der Intellektuelle II.1 Das allgemeine Umfeld In diesem Teil der Dissertation sollen Aussagen getroffen werden, die auf folgende und weitere Fragen eine Antwort geben: Was ist ein Intellektueller? Wie kam der Begriff zustande? Gibt es Unterschiede zwischen den Intellektuellen und wie werden sie eingeteilt? II.2 Das deutsche Umfeld Die Behandlung des Nazisystems und dessen historische Hintergründe vermittelt bedeutsame Lehren. Aber wozu braucht man diese Lehren? Gibt es Spuren von Nationalsozialismus heutzutage? Wo waren die Intellektuellen bei der Bildung des Nationalsozialismus? Ist der Nationalsozialismus erst mit Hitler aufgetaucht? Wenn zuvor, in welcher Phase hat er sich im Bewusstsein der Deutschen verankert? Ob theoretische bzw. geistige Tendenzen dazu beigetragen haben? II.3 Das Bild von Grass als Intellektueller II.3.1 Positionierung Eine Hauptthese für Grass intellektuelle Positionierung wird durch die Verbindung zwischen Grass’ Grundkonzeption der gesellschaftspolitischen Intellektualität und der Gruppe 47 ermittelt. Dann bezweckt die Behandlung von Grass Bild nach Erscheinen seines autobiographischen Werks: „Beim Häuten der Zwiebel“ (2006), dass seine Intellektualität nicht nur aus dem positiven, sondern auch aus dem negativen Profil beleuchtet wird. Aus der Darstellung zahlreicher Ansichten von Günter Grass werden fünf thematische Kernpunkte als Konzepte behandelt. Unter jedem Konzept sollen spezifische Vorschläge zur gesellschaftlichen Positionierung aufgezeigt werden. II.3.2 Grass’ politische Merkmale Es handelt sich hier um die intellektuellen Charaktereigenschaften. Dadurch kommen manche Fragen zu Wort: Hat Günter Grass gesellschaftliche Aktivitäten? Hat er die Voraussetzungen dafür? Wie ist der Umfang seiner Aktivitäten? Hat die Gruppe 47 Einfluss auf Grass intellektuelle Merkmale? Steht bei Grass eine Methode der gesellschaftspolitischen Arbeit zur Verfügung? Dann wird die politische Sprache von Günter Grass und ihre Wirkung auf den Rezipienten untersucht. Danach wird nach Grass’ Auffassung von der Revision gefragt und ob sie mit seiner Auffassung der Aufklärung zusammenpasst. Darauf wird die Funktion der Revision in seinem literarischen Werk und in seiner gesellschaftspolitischen Aktivität gezeigt. Abschließend werden die Argumente seiner Intellektualität untersucht: Wie hat Grass’ gesellschaftspolitische Aktivität den konkreten politischen Rahmen berücksichtigt? Um diese Frage zu beantworten, muss der Zusammenhang zwischen Politik und Moral verdeutlicht werden. III. Historischer Kontext und Inhalt der Werke Unter diesem Titel wird erstens der historische Zusammenhang der untersuchten Werke skizziert. Dann werden meistens durch Argumente aus jedem Werk selbst nicht nur der Kern des Werkes und sein Handlungsverlauf, sondern auch die dafür angewandte Methode dargestellt. IV. Bezug der untersuchten Werke zu konkreten gesellschaftspolitischen Fragen IV.1 Interaktionswege des Intellektuellen mit der Gesellschaft, vor allem beim Wandel gesellschaftspolitischer Prozesse Zentralkonzepte des ersten Werkes sind: Vermittlung, Engagement, Solidarität und die Aktualität als Maßstab. Diese werden durch zwei Konzepte des zweiten Werkes: Appell an Generationen beim Wechsel und Zusammenhaltsprinzip an Revision gebunden, sowie durch die Behandlung vom Prozess der Meinungsbildung im vierten Werk ausgearbeitet. IV.2 Thematische Aspekte zur Vermeidung eines Naziregimes Aus den thematischen Perspektiven der drei letzten Werke geht eine bunte Sammlung intellektueller Konzepte aus, die zur Bekämpfung von Nazivorsprünge verwendet werden können. V. Pädagogische Strategien der untersuchten Werke Die pädagogischen Aspekte der untersuchten Werke sollen intellektuelle Werte vermitteln, die einen bedeutenden Beitrag zur Lösung gesellschaftspolitischer Probleme und Konflikte leisten. VI. Entwicklung der literarischen und gesellschaftspolitischen Vision Hier wird die Entwicklungslinie der gesellschaftspolitischen Vision in den untersuchten Werken verfolgt. VII. Zur Rezeption der vier Werke Durch die Auseinandersetzung mit der negativen Kritik wird angestrebt, ihre Subjektivität darzulegen, damit der gesellschaftspolitische Wert der vier Werke enthüllt wird. N2 - The present work carries the title: The role of intellectuals in Günter Grass works: „The plebeians rehearse the uprising“(1966), „locally dazes“(1969), „from the diary of a snail“(1972) and „a wide field“( 1995). The first chapter deals all together with three full titles II. The intellectual II.1 The general sphere In this part of the dissertation the statements which give an answer on the following and other questions should be met: what is an intellectual? How did the concept come about? Are there differences between the intellectuals and how are they divided? II.2 The German Sphere The treatment of the Nazi system and his historical backgrounds provides significant apprenticeships. For what does one need these apprenticeships? Are there tracks of national socialism nowadays? Where were the intellectuals during the forming of the national socialism? Has national socialism appeared only with Hitler? If before in which phase it has anchored itself in the consciousness of the Germans? Whether have theoretical or intellectually trends contributed it towards? II.3 The picture of Grass as an intellectual II.3.1 positioning A main thesis for Grass intellectual positioning is determined by the connection between Grass’ basic concept of the society-political intellectuality and the group 47. Then the treatment of Grass picture after appearance of his autobiographical work: „with the skin of the onion“(2006) aims, that his intellectuality not only from the positive, but also from the negative profile is lighted up. From the representation of numerous views of Günter Grass are five thematic quintessential points treated as concepts. Under every concept should specific proposals be indicated to the social positioning. II.3.2 Grass’ political signs It concerns here around the intellectual traits. Some questions thereby get a chance to speak: Does Günter Grass have social activities? Does he have the conditions for it? How is the extent of his activities? Does the group 47 have influence on Grass’ intellectual signs? Is a method of the society-political work available with Grass? Then the political language is examined by Günter Grass and its effect on the recipient. Then Grass’ view of Revision is asked and whether it fits with his view of the clarification. The function of the Revision is consequently offered in his literary work and in his society-political activity. Finally, the arguments of his intellectuality are examined. How has Grass’ society-political activity considered the concrete political frame? To answer this question, the connection must be made clear between politic and morality. III. Historical context and contents of the works Under this title the historical connection of the examined works is outlined first. Then are mostly shown with arguments from every work not only the core of the work and its action course, but also the method applied for it. IV. Relation of the examined works to concrete society-political questions IV.1 Interaction ways of the intellectual with the society, above all with the change of Society-political processes Central concepts of the first work are: Mediation, engagement, solidarity and the actuality as a graduation. These become by two concepts of the second work: Appeal at generations in case of change and cohesion principle engaged in the revision, as well as by the treatment of the education of opinion in the fourth work worked out. IV.2 Thematic aspects for the avoidance of a Nazi regime From the subject of the three last works goes a coloured collection of intellectual concepts out, which can be used to the fight against Nazi projections. V. Educational strategies of the examined works The educational strategies of the examined works should provide intellectual values, which make an important contribution to solve society-political problems and conflicts. VI. Development of the literary and society-political vision Here the line of development of the society-political vision is pursed in the examined works. VII. To the reception of the four works The discussion with the negative criticism aims to clear the subjectivity, so that the society-political value of the four works is revealed. KW - Intellektuellen-Rolle KW - gesellschaftspolitische Konzepte KW - gesellschaftspolitische Rolle der Intellektuellen KW - role of intellect KW - society-political concepts KW - society-political role of intellectuals Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-396736 ER - TY - THES A1 - Al-Areqi, Samih Taha Mohammed T1 - Semantics-based automatic geospatial service composition T1 - Semantikbasierte automatische Komposition von GIS-Diensten N2 - Although it has become common practice to build applications based on the reuse of existing components or services, technical complexity and semantic challenges constitute barriers to ensuring a successful and wide reuse of components and services. In the geospatial application domain, the barriers are self-evident due to heterogeneous geographic data, a lack of interoperability and complex analysis processes. Constructing workflows manually and discovering proper services and data that match user intents and preferences is difficult and time-consuming especially for users who are not trained in software development. Furthermore, considering the multi-objective nature of environmental modeling for the assessment of climate change impacts and the various types of geospatial data (e.g., formats, scales, and georeferencing systems) increases the complexity challenges. Automatic service composition approaches that provide semantics-based assistance in the process of workflow design have proven to be a solution to overcome these challenges and have become a frequent demand especially by end users who are not IT experts. In this light, the major contributions of this thesis are: (i) Simplification of service reuse and workflow design of applications for climate impact analysis by following the eXtreme Model-Driven Development (XMDD) paradigm. (ii) Design of a semantic domain model for climate impact analysis applications that comprises specifically designed services, ontologies that provide domain-specific vocabulary for referring to types and services, and the input/output annotation of the services using the terms defined in the ontologies. (iii) Application of a constraint-driven method for the automatic composition of workflows for analyzing the impacts of sea-level rise. The application scenario demonstrates the impact of domain modeling decisions on the results and the performance of the synthesis algorithm. N2 - Obwohl es gängige Praxis geworden ist, Anwendungen basierend auf der Wiederverwendung von existierenden Komponenten oder Diensten zu bauen, stellen technische Komplexität und semantische Herausforderungen Hindernisse beim Sicherstellen einer erfolgreichen und breiten Wiederverwendungen von Komponenten und Diensten. In der geowissenschaftlichen Anwendungsdomäne sind die Hindernisse durch heterogene geografische Daten, fehlende Interoperabilität und komplexe Analyseprozessen besonders offensichtlich. Workflows manuell zu konstruieren und passende Dienste und Daten zu finden, welche die Nutzerabsichten und -präferenzen abdecken, ist schwierig und zeitaufwändig besonders für Nutzer, die nicht in der Softwareentwicklung ausgebildet sind. Zudem erhöhen die verschiedenen Zielrichtungen der Umweltmodellierung für die Bewertung der Auswirkungen von Klimaänderungen und die unterschiedlichen Typen geografischer Daten (z.B. Formate, Skalierungen, und Georeferenzsysteme) die Komplexität. Automatische Dienstkompositionsansätze, die Semantik-basierte Unterstützung im Prozess des Workflowdesigns zur Verfügung stellen, haben bewiesen eine Lösung zur Bewältigung dieser Herausforderungen zu sein und sind besonders von Endnutzern, die keine IT-Experten sind, eine häufige Forderung geworden. Unter diesem Gesichtspunkt sind die Hauptbeiträge dieser Doktorarbeit: I. Vereinfachung der Wiederverwendung von Diensten und des Workflowdesigns von Klimafolgenanalysen durch Anwendung des Paradigma des eXtreme Model-Driven Development (XMDD) II. Design eines semantischen Domänenmodells für Anwendungen der Klimafolgenanalysen, welches speziell entwickelte Dienste, Ontologien (die domänen-spezifisches Vokabular zur Verfügung stellen, um Typen und Dienste zu beschreiben), und Eingabe-/Ausgabe-Annotationen der Dienste (unter Verwendung von Begriffen, die in den Ontologien definiert sind) enthält. III. Anwendungen einer Constraint-getriebenen Methode für die automatische Komposition von Workflows zum Analysieren der Auswirkungen des Meeresspiegelanstiegs. Das Anwendungsszenario demonstriert die Auswirkung von Domänenmodellierungsentscheidungen auf die Ergebnisse und die Laufzeit des Synthesealgorithmus. KW - geospatial services KW - service composition KW - scientific workflows KW - semantic domain modeling KW - ontologies KW - climate impact analysis KW - GIS-Dienstkomposition KW - Wissenschaftlichesworkflows KW - semantische Domänenmodellierung KW - Ontologien KW - Klimafolgenanalyse Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-402616 ER - TY - THES A1 - Altman Doron, Ilana T1 - שאלת ההזרעה המלאכותית בספרות השו"ת T1 - Artificial Insemination in the Rabbinic Discussion T1 - Künstliche Befruchtung in der rabbinischen Diskussion N2 - This research concentrates on the investigation of the Responsa literature and the examination of attitudes of Jewish religious decisors towards artificial insemination (AI), as well as other reproductive technologies such as in-vitro fertilization (IVF), surrogacy and egg donation. The study attempts to elucidate the formation of Halacha on this question according to the Responsa literature starting from the Rishonim (the early authorities) period (11th till 15th centuries) and up to the Acharonim (the later authorities) period (from the 16th century and onwards), and concentrating primarily on the modern era and last century. The aim of this research is to examine the process of reasoning and decision making of religious authorities, dealing with the penetration of technological and scientific advancements into a closed and conservative society. Our analysis shows how rabbis are facing the conflict between medical and social necessity to access advanced medical treatments and fear of social transitions and religious implications, caused by such technologies. In addition to analysis of the Orthodox Responsa, this study surveys also the opinion of rabbis in Reform and Conservative Judaism. N2 - תקציר מצוות הפריון הינה אחת מן המצוות החשובות ביהדות ומגדירה במובנים רבים את מהות קיומו של האדם היהודי הדתי. זוגות דתיים אשר סובלים מבעיית פריון נקרעים לא פעם בין מחוייבותם הדתית והלחץ החברתי בקהילתם לבין אי יכולתם להביא ילדים לעולם בדרך טבעית. החל מאמצע המאה ה 20- הפכו טכנולוגיות פריון רפואיות לנגישות לציבור הרחב בישראל ובעולם והובילו למהפכה חברתית אשר אפשרה לזוגות חשוכי ילדים להגשים את חלומם בפעם הראשונה ולהפוך להורים. פריצת דרך רפואית זו לא נעלמה מעיני הציבור הדתי על זרמיו השונים וגרמה לטלטלה בתפיסת עולמם של מנהיגיהם, אשר נדרשו לתת מענה הלכתי הולם המאזן בין רווחת קהילותיהם לבין שמירה על ערכי ומצוות הדת היהודית. על רקע תמורות אלו התפתח שיח הלכתי ואקדמי חשוב ומעניין באשר למקומה של טכנולוגיה מודרנית בחברה המתנהלת על פי קודים מסורתיים. עם זאת, הדיאלוג החי המתקיים בין מנהיגי היהדות לבין קהילותיהם, אשר מתועד כאוסף שאלות ותשובות (שו"ת) לבעיות הלכתיות אקטואליות בתחום הפריון, לא נחקר דיו. עבודתנו עוסקת במחקר ספרות השו"ת ובגישת פוסקי ההלכה להסתייעות בטכנולוגיית ההזרעה המלאכותית ובטיפולי פוריות חדשניים נוספים שהתפתחו בעקבותיה כגון הפריה חוץ גופית, פונדקאות ותרומת ביציות. העבודה סוקרת את התגבשות ועיצוב ההלכה בשאלה זו, כפי שעולה מספרות השו"ת החל מתקופת הראשונים (המאות ה 11- עד ה- 16 ) ועד לפוסקים מתקופת האחרונים (המאה ה- 16 ואילך), ומתמקדת בעיקר בתקופה המודרנית של המאה האחרונה. במרכז העבודה יעמדו מעמדם ההלכתי של האם והוולד בעקבות שימוש בהזרעה והפריה מלאכותית וכן השלכותיהן ההלכתיות של השימוש הרפואי בזרע. תרומתו של מחקר זה הינה בהצגת וניתוח התמודדות הפוסקים עם העימות הערכי וההלכתי שמעוררות תמורות במבנה המשפחה ובדפוסי הורות מסורתיים כתוצאה משימוש הולך וגובר בטכנולוגיות פריון מתקדמות בחברה המודרנית. יתר על כן, מחקר זה מרחיב את הדיון ההלכתי אל מעבר לעמדות הפוסקים ביהדות האורתודוקסית, הנצמדים לעקרונות ההלכה ההיסטורית, ומציג לראשונה אף את קשת הדעות של רבנים המשתייכים לזרמי היהדות המתקדמת והקונסרבטיבית, הדוגלים בפיתוח ההלכה והתאמתה למציאות החיים המשתנה. כך, מעניקה עבודת מחקר זו תמונה שלמה ומקיפה יותר באשר להתמודדות הרבנים עם שאלת ההזרעה המלאכותית ומציגה את רב גוניותה של ההלכה כפי שמשתקפת בזרמי היהדות השונים בישראל ובתפוצות. העבודה מחולקת לשישה חלקים אשר יפורטו בקצרה להלן. חלק ראשון - מבוא לשאלת ההזרעה המלאכותית בספרות השו"ת חלק זה מהווה מבוא והקדמה תיאורטית ומחקרית לשאלת ההזרעה המלאכותית ומטרתו לצייד את הקורא ברקע ההיסטורי ובכלים המחקריים הדרושים להמשך העבודה. הפרק הראשון סוקר מצוות דתיות והשקפות תרבותיות בנוגע לילודה בחברה היהודית ואילו הפרק השני מניח יסודות מתודולוגיים והיסטוריים הנחוצים לחקר שאלת ההזרעה המלאכותית בספרות השו"ת. פרק ראשון - מצוות דתיות והשקפות תרבותיות בנוגע לילודה בחברה היהודית פרק זה מציג את המשנה האידיאולוגית העומדת בבסיס ההצדקה ההלכתית להתרתם של טיפולי הפוריות. הפרק דן בחשיבות מצוות הפריון כפי שעולה ממקורות הלכתיים קדומים וברקע ההיסטורי והתרבותי למרכזיותה של מצווה זו ומצוות נלוות לה בדת היהודית. הפרק מדגים כיצד עיצבה חשיבות המצווה את דפוס המשפחה היהודית לאורך ההיסטוריה ועד לימינו ומסתיים בדיון קצר בשאלות רפואיות מוסריות העולות מהנגשת טכנולוגיות פריון מתקדמות במדינת ישראל המודרנית. פרק שני - יסודות מתודולוגיים והיסטוריים בחקר שאלת ההזרעה המלאכותית בספרות השו"ת בפרק זה מוצגים תחילה מטרות ושיטות המחקר אשר נבחרו לשם ניתוח הפסיקה בשאלת ההזרעה המלאכותית. מכיוון שהעבודה עוסקת בשאלה רפואית חדשנית והשפעתה על העולם הדתי, יערך מחקר זה תוך שימוש בניתוח רב מימדי המשלב מספר שיטות מחקר ובראשן השיטה הדוגמטית-היסטורית, כמו גם בניתוח ביקורתי של שיקולי המדיניות העומדים בבסיס שיקולי הפוסקים לפי אסוכלת הריאליזים ההלכתי. לאחר מכן נסקרים ונידונים המקורות ההיסטוריים העיקריים אשר עוסקים בהתעברות על טבעית באמבט או באמצעות שכיבה על סדינים והעומדים בבסיס הכרעות הפוסקים בהשלכות הזרעה מלאכותית על מעמדם ההלכתי של האישה והילוד. חלק שני- ספרות השו"ת האורתודוקסית בשאלת הזרעה מלאכותית מן הבעל חלקו שני של המחקר עוסק בניתוח ספרות השו"ת האורתודוקסית בשאלת הזרעה מלאכותית מן הבעל ובוחן את התפתחותו הרעיונית של איסור השחתת זרע ואת עמדות הפוסקים בשאלת הזרעה מלאכותית מן הבעל כפי שנידונה בספרות השו"ת. פרק ראשון - התפתחותו הרעיונית של איסור השחתת זרע בפרק זה נסקרים מקורותיו ההיסטוריים של האיסור להשחתת זרע. איסור זה נושק לכל תחומי חייו של הזוג הדתי ובעיקר לתחום המיניות והפריון ובעל השפעה מהותית על מגבלות הצניעות שהוחלו בעקבותיו על המיניות הגברית. קיים ויכוח בין החוקרים האם נובע האיסור מן המקורות העתיקים כגון התלמוד או לחילופין התעצם בעקבות החמרות הרבנים. מחקרינו מציע כי האפשרות השניה היא הסבירה יותר. חכמי התלמוד מפגינים גישה מקלה כלפי האיסור אך מביעים סלידה מהוצאת זרע לבטלה מתוך חשיבה חסידית או אמונה כי עיסוק בעינוג מיני עצמי עלול להסיט את האדם מקיום מצוות הפריון. לעומת זאת, בספרות הקבלה ובמיוחד בזוהר ניכרת החמרה במימדי האיסור החודרת מאוחר יותר אל עולם ההלכה. פרק שני - דיון בהזרעה מן הבעל בספרות השו"ת הפרק דן בפסיקותיהם של רבנים בולטים בזרם האורתודוקסי בשאלת ההזרעה מן הבעל. בספרות השו"ת האורתודוקסית ניכרת השפעתו של איסור הוצאת זרע לבטלה על שיקולי הפוסקים באם להתיר את הטיפול בהזרעה מלאכותית מן הבעל. פוסקים מקלים כגון הרבנים פיינשטיין, נבנצל ויוסף מייחסים משקל רב יותר לחשיבות מצוות הפריון ומצמצמים בשל כך את תחולת האיסור. לעומתם, פוסקים מחמירים ובראשם הרבנים טננבוים, קוק, עוזיאל, הדאיה ולדנברג מתנגדים לטיפולי פוריות מחשש השחתת זרע ובשל השלכותיה הרוחניות של העבירה על האיסור. שאלה מהותית נוספת בשיח ההלכתי בה נחלקו הרבנים הינה באשר לאפשרות קיומה של מצוות הפריה והרביה באמצעות הריון שהושג בסיוע רפואי. פוסקים מדור האחרונים, כגון הרבנים טננבוים, סגל ואזולאי (החיד"א), ובעקבותיהם פוסקים בולטים במאה ה- 20 וה- 21 כמו הרבנים עוזיאל, הדאיה, ולדנברג וקניבסקי סברו כי ניתן לקיים את המצווה באופן טבעי בלבד. לעומת זאת, הרבנים נבנצל, יוסף, וינברג ואוירבך ייחסו חשיבות רבה יותר לכוונת העושה ולתוצאה המיוחלת של ההריון אשר מגשימה לדעתם את הרציונל העומד בבסיס מצוות הפרייה הרבייה ובמצוות ישוב העולם. שאלה נוספת המתעוררת בעניין הזרעה מן הבעל ונידונה בפרק זה עוסקת בבעיית העקרות ההלכתית. התעקשות הרבנים לשמור על הלכות הנידה במתכונתן המסורתית חושפת נשים דתיות לאי ודאות באשר לטהרתן ומכפיפה את חיי המין והפריון של משפחות שלמות למרות הסמכות הרבנית. חלק שלישי- ספרות השו"ת האורתודוקסית בשאלת הזרעה מלאכותית מתורם חלקו השלישי של המחקר עוסק בדיון ההלכתי האורתודוקסי בשאלת ההזרעה המלאכותית מתורם יהודי או נוכרי לאישה נשואה. מרבית הפוסקים הסתייגו מתרומת זרע לאישה נשואה מתורם יהודי כמו גם מנוכרי משיקולים הלכתיים ואידיאולוגיים. פרק ראשון - שאלת ההזרעה המלאכותית מתורם יהודי תרומת זרע מתורם יהודי זר מעלה חששות הלכתיים רבים לגבי מעמדה ההלכתי של האישה כגון ניאוף וקיום מצוות הייבום והחליצה. כמו כן הועלו חששות לגבי יחוסו וכשרותו ההלכתית של הקטין כגון חשש ממזרות, גילוי עריות בין ילדי התורם, פגיעה במעמד הכהונה ובעיות בתחום המעמד האישי בשל אי ודאות לגבי זהות התורם. בנוסף, משליכה הכרעה בשאלות אלה על זכאות הקטין לזכויות סוציאליות המגיעות לו מאביו, כגון הזכות למזונות ולירושה. פסיקת ההלכה במאה האחרונה אימצה את עמדתו של הרב פיינשטיין, לפיה רק הריון הנובע ממגע מיני ישיר בין אישה נשואה לגבר זר, בניגוד להזרעה מלאכותית, יכול לפגוע במעמד האישה והילוד. עם זאת, פוסקים רבים אסרו לבצע הזרעה מלאכותית מגבר יהודי מטעמי זהירות, בגין חששות אלו. פרק שני - הזרעה מלאכותית מתורם לא יהודי לאישה נשואה על אף שבמקרה של תרומת זרע מנוכרי נעדר הילוד יחוס לאביו הנוכרי וכשרותו נקבעת על פי מעמד האם בלבד, מסתייגים פוסקים רבים מן הפעולה. הפוסקים מונים טיעונים רבים לאיסור תרומת זרע מגבר נוכרי וביניהם חילול השם, פגיעה בביצוע מנהג הייבום והחליצה, ספקות לגבי זכויות הירושה, עידוד ההפקרות המינית ופגיעה ביציבות התא המשפחתי המסורתי. בנוסף חוששים הם מבלבול לגבי זהות אבי הילוד ופגיעה במעמד הכהונה. במהלך המאה ה- 20 ניכרת מגמה בקרב פוסקים העוסקים בקבלה לייחוס תכונות שליליות לזרע נוכרי, אשר עוברות לילוד ובאופן זה פוגעות בקדושת העם היהודי. מעבר לשאלות ההלכתיות מועלים בפרק זה קשיים אתיים אשר מעוררת תרומת זרע אנונימית, המונעת מן הילוד לברר את שורשיו הביולוגיים. חלק רביעי- יחס הפסיקה האורתודוקסית לשינויים במבנה המשפחה המסורתית בעקבות שימוש בטכנולוגיות פריון חלק זה מנתח את יחס הפסיקה האורתודוקסית לשינויים במבנה המשפחה המסורתית בעקבות שימוש בטכנולוגיות פריון ומורכב משלושה פרקים: הזרעה מלאכותית לאישה פנויה, הפריה חוץ גופית והקמת משפחה אלטרנטיבית בפרספקטיבה הלכתית אורתודוקסית. פרק ראשון - הזרעה מלאכותית לאישה פנויה המוסכמה ההלכתית הינה כי ילדה של אישה פנויה לא ייחשב לממזר, אפילו אם אביו הביולוגי הוא יהודי. למרות זאת אסרו פוסקים מסויימים על הזרעה מלאכותית במקרה זה בגין חששות לייחוס הילוד, גילוי עריות וגזילת ירושת שאר האחים. חלק מן הפוסקים קוראים לאסור הזרעה מלאכותית לאישה פנויה בשם טובת הילד ולא מסיבות הלכתיות. אפשרות נוספת אשר השלכותיה ההלכתיות נידונות בפרק זה הינה ביצוע הזרעה מלאכותית באישה רווקה או אלמנה באמצעות שימוש בזרעו של אדם שנפטר. חשוב לציין כי השימוש בטכנולוגיה זו שנוי במחלוקת בקרב הרבנים בגין החשיבות אותה מייחסת היהדות לערך כבוד המת. פרק שני - הפריה חוץ גופית הפריית מבחנה יכולה להתבצע בין בני זוג נשואים בסיוע או ללא היזקקות לתרומת ביצית או זרע. פוסקים אשר התירו את השימוש בטכנולוגיה זו הביעו את חששותיהם בנוגע להשלכותיה ההלכתיות של הפריה החוץ גופית בשל הקושי לפקח על התהליך, הנעשה מחוץ לגוף האדם. מתנגדי הפריית המבחנה סברו כי היא מתערבת במלאכת הבריאה האלוהית ועשויה לדרדר את האנושות מבחינה מוסרית לתכנון ולשיבוט בני אדם. הפריה חוץ גופית מעוררות שאלות הלכתיות חדשניות ובראשן שאלת הגדרת האמהות, כגון במקרי פונדקאות ותרומת ביציות, מהן הסתייגו מרבית פוסקי הדור במאה ה 20- . הקביעה שאומצה בשיח ההלכתי העכשווי גורסת כי אמו של התינוק תהיה האישה שילדה אותו, גם אם נולד מתרומת ביצית. הכרעה זו מובלעת ברציונל החוקים המסדירים את הפונדקאות במדינת ישראל ואשר מטילים מגבלות הלכתיות על בחירת הפונדקאית לשם מניעת חשש ממזרות או שאלה לגבי יהדותו של הילוד. פרק שלישי - הקמת משפחה אלטרנטיבית בפרספקטיבה הלכתית אורתודוקסית קיימת בעיה הלכתית מהותית במיסוד הקשר החד-מיני ביהדות האורתודוקסית. ספרות השו"ת האורתודוקסית אינה עוסקת במפורש בשאלת השימוש בהזרעה מלאכותית לצורך הקמת המשפחה החד- מינית. עם זאת, ניתן ללמוד רבות על גישת האורתודוקסיה משו"תים עכשוויים העוסקים בתופעת ההומוסקסואליות ובקיום מצוות הפריון במקרה זה. הדעה הרווחת היום בקרב הפוסקים הינה כי קשר חד- מיני אסור, כמו גם מיסודו וקיום מצוות פרו ורבו במסגרת זו. בשל כך ניתן להסיק כי הרבנים לא יתירו שימוש בהזרעה מלאכותית לצורך קיום מצוות הפריון במשפחה חד-מינית. חלק חמישי- עמדת רבני הזרם רפורמי והקונסרבטיבי בשאלת ההזרעה המלאכותית חלק זה מתמקד בזרמי היהדות הרפורמית והקונסרבטיבית ומציג את עמדות רבני זרמים אלו בעניין ההזרעה המלאכותית תוך עימותן עם עמדות פוסקים אורתודוקסיים. פרק ראשון - עמדת הרבנות הרפורמית בשאלת ההזרעה המלאכותית חשיבות מצוות הפריון מודגשת בספרות השו"ת הרפורמית, אולם טיפולי פוריות אינם מתפרשים כדרך היחידה לקיומה. על מנת שלא לפגוע במרקם החיים המשפחתי מוצעת לא אחת חלופת האימוץ לטיפולי פוריות מייגעים, תרומת זרע והיזקקות לפונדקאות ותרומת ביציות. שאלת השחתת הזרע, המעסיקה רבות את רבני הזרם האורתודוקסי, כמעט שאינה נידונה על ידי רבני הזרם הרפורמי. באשר לשאלות של כשרות וייחוס, רווחת הדעה בקרב רבנים רפורמיים בולטים כגון הרב הומולקה ורומיין, כי מעמד הממזרות איננו רלוונטי עוד בימינו ולכן ממילא לא נשקפת לילד הסכנה שזכויותיו הדתיות ייפגעו. ועד הרבנים הרפורמיים התיר לחבריו לפעול לפי שיקול דעתם בעניין עריכת טקס נישואין דתי בין בני זוג בני אותו המין, תוך הדגשת הויכוח הפנימי בתנועה ומורת הרוח הקיימת מצד הזרמים האחרים ביהדות. פרק שני - עמדת הרבנות הקונסרבטיבית בשאלת ההזרעה המלאכותית עמדת רבני היהדות הקונסרבטיבית גורסת כי טיפולי פוריות מהווים רשות, אך אינם בגדר חובה עבור זוגות הרוצים לקיים את מצוות הפריה והרבייה ומתקשים בכך. בדומה לביטולה של גזירת הממזרות בזרם הרפורמי, בוטל מעמד זה לאחרונה גם ביהדות הקונסרבטיבית. אוננות במסגרת טיפולי פוריות הינה מותרת ואיננה מוגדרת כהשחתת זרע לבטלה ואף מותרת גם לשם תרומת זרע של יהודי לאישה לא יהודיה. כמו בזרם הרפורמי גם כאן מונחת אופציית האימוץ על סדר היום. כנסת הרבנים הקונסרבטיבים בארצות הברית קיבלה החלטה ברוב זעום להכרה אזרחית בהומוסקסואלים, אך עם זאת השאירה על כנו את האיסור לקדש זוגות אלה. אין בהחלטה זו הכרה הלכתית בזוגיות החד-מינית אלא קבלתם החברתית של זוגות אלה ועידודם להשתלב בקהילות הקונסרבטיביות. חלק שישי - סיכום ודיון בהשלכות המחקר בחלקו השישי והאחרון בעבודת מחקר זו נסכם ונדון בהשלכותיה האתיות והגלובליולת של הפסיקה ההלכית בשאלה הנידונה. כפי שניתן לראות מעבודת מחקר זו, הרבנים האורתודוקסיים מסתמכים בהכרעותיהם בעיקר על שיקולים הלכתיים ופחות על שיקולים אתיים ואוניברסליים. מחד, מסתייגים פוסקים אורתודוקסיים מסויימים משימוש לרעה בטיפולי פוריות, אך מאידך מוכנים הם בשם עקרונות דתיים להתיר שימוש בטכנולוגיות אלו במקרים שאינם מצריכים זאת משיקולים רפואיים. במיוחד בולט העדר התייחסותם של הפוסקים האורתודוקסיים לשיקולים מוסריים חברתיים, כמו גם לרצונה ולרווחתה של האישה העוברת טיפולי פוריות. לעומתם מביעים רבני הזרם הרפורמי והקונסרבטיבי את דאגתם להשלכותיהם של טיפולים אלו על נשים הנזקקות להתערבות רפואית מעין זו לשם התעברות ואלו העובדות בתעשיית הפריון. יש לציין כי הדיון ההלכתי עוסק בהיבט צר בלבד של שאלת ההזרעה המלאכותית ואינו נוגע ברבות מן השאלות המורכבות שמעוררות טכנולוגיות פריון מתקדמות. עם זאת הדיון ההלכתי הינו חשוב ביותר ומציף אף שאלות נוספות בדבר הסכנה הצפויה מהפיכתן של טכנולוגיות אלה לכלי שרת בידי אידאולוגיות דתיות או פוליטיות. KW - artificial Insemination KW - rabbinic discussion KW - reproductive technologies KW - responsa KW - פריון KW - ספרות השו"ת KW - הזרעה מלאכותית KW - טכנולוגיה Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-103582 ER - TY - THES A1 - Anders, Friedrich T1 - Disentangling the chemodynamical history of the Milky Way disc with asteroseismology and spectroscopy T1 - Die chemodynamische Entwicklung der Milchstraßenscheibe im Lichte asteroseismischer und spektroskopischer Himmelsdurchmusterungen N2 - Galaxies are among the most complex systems that can currently be modelled with a computer. A realistic simulation must take into account cosmology and gravitation as well as effects of plasma, nuclear, and particle physics that occur on very different time, length, and energy scales. The Milky Way is the ideal test bench for such simulations, because we can observe millions of its individual stars whose kinematics and chemical composition are records of the evolution of our Galaxy. Thanks to the advent of multi-object spectroscopic surveys, we can systematically study stellar populations in a much larger volume of the Milky Way. While the wealth of new data will certainly revolutionise our picture of the formation and evolution of our Galaxy and galaxies in general, the big-data era of Galactic astronomy also confronts us with new observational, theoretical, and computational challenges. This thesis aims at finding new observational constraints to test Milky-Way models, primarily based on infra-red spectroscopy from the Apache Point Observatory Galactic Evolution Experiment (APOGEE) and asteroseismic data from the CoRoT mission. We compare our findings with chemical-evolution models and more sophisticated chemodynamical simulations. In particular we use the new powerful technique of combining asteroseismic and spectroscopic observations that allows us to test the time dimension of such models for the first time. With CoRoT and APOGEE (CoRoGEE) we can infer much more precise ages for distant field red-giant stars, opening up a new window for Galactic archaeology. Another important aspect of this work is the forward-simulation approach that we pursued when interpreting these complex datasets and comparing them to chemodynamical models. The first part of the thesis contains the first chemodynamical study conducted with the APOGEE survey. Our sample comprises more than 20,000 red-giant stars located within 6 kpc from the Sun, and thus greatly enlarges the Galactic volume covered with high-resolution spectroscopic observations. Because APOGEE is much less affected by interstellar dust extinction, the sample covers the disc regions very close to the Galactic plane that are typically avoided by optical surveys. This allows us to investigate the chemo-kinematic properties of the Milky Way's thin disc outside the solar vicinity. We measure, for the first time with high-resolution data, the radial metallicity gradient of the disc as a function of distance from the Galactic plane, demonstrating that the gradient flattens and even changes its sign for mid-plane distances greater than 1 kpc. Furthermore, we detect a gap between the high- and low-[$\alpha$/Fe] sequences in the chemical-abundance diagram (associated with the thin and thick disc) that unlike in previous surveys can hardly be explained by selection effects. Using 6D kinematic information, we also present chemical-abundance diagrams cleaned from stars on kinematically hot orbits. The data allow us to confirm without doubt that the scale length of the (chemically-defined) thick disc is significantly shorter than that of the thin disc. In the second part, we present our results of the first combination of asteroseismic and spectroscopic data in the context of Galactic Archaeology. We analyse APOGEE follow-up observations of 606 solar-like oscillating red giants in two CoRoT fields close to the Galactic plane. These stars cover a large radial range of the Galactic disc (4.5 kpc $\lesssim R_{\rm Gal}\lesssim15$ kpc) and a large age baseline (0.5 Gyr $\lesssim \tau\lesssim$ 13 Gyr), allowing us to study the age- and radius-dependence of the [$\alpha$/Fe] vs. [Fe/H] distributions. We find that the age distribution of the high-[$\alpha$/Fe] sequence appears to be broader than expected from a monolithically-formed old thick disc that stopped to form stars 10 Gyr ago. In particular, we discover a significant population of apparently young, [$\alpha$/Fe]-rich stars in the CoRoGEE data whose existence cannot be explained by standard chemical-evolution models. These peculiar stars are much more abundant in the inner CoRoT field LRc01 than in the outer-disc field LRc01, suggesting that at least part of this population has a chemical-evolution rather than a stellar-evolution origin, possibly due to a peculiar chemical-enrichment history of the inner disc. We also find that strong radial migration is needed to explain the abundance of super-metal-rich stars in the outer disc. Finally, we use the CoRoGEE sample to study the time evolution of the radial metallicity gradient in the thin disc, an observable that has been the subject of observational and theoretical debate for more than 20 years. By dividing the CoRoGEE dataset into six age bins, performing a careful statistical analysis of the radial [Fe/H], [O/H], and [Mg/Fe] distributions, and accounting for the biases introduced by the observation strategy, we obtain reliable gradient measurements. The slope of the radial [Fe/H] gradient of the young red-giant population ($-0.058\pm0.008$ [stat.] $\pm0.003$ [syst.] dex/kpc) is consistent with recent Cepheid data. For the age range of $1-4$ Gyr, the gradient steepens slightly ($-0.066\pm0.007\pm0.002$ dex/kpc), before flattening again to reach a value of $\sim-0.03$ dex/kpc for stars with ages between 6 and 10 Gyr. This age dependence of the [Fe/H] gradient can be explained by a nearly constant negative [Fe/H] gradient of $\sim-0.07$ dex/kpc in the interstellar medium over the past 10 Gyr, together with stellar heating and migration. Radial migration also offers a new explanation for the puzzling observation that intermediate-age open clusters in the solar vicinity (unlike field stars) tend to have higher metallicities than their younger counterparts. We suggest that non-migrating clusters are more likely to be kinematically disrupted, which creates a bias towards high-metallicity migrators from the inner disc and may even steepen the intermediate-age cluster abundance gradient. N2 - Galaxien gehören zu den komplexesten physikalischen Systemen, die derzeit mit Computern modelliert werden können. Eine realistische Galaxiensimulation muss kosmologische Effekte genauso berücksichtigen wie die Gesetze der Plasma-, Kern-, und Teilchenphysik. Die Milchstraße ist ein ideales Labor für die Überprüfung solcher Simulationen, da moderne Teleskope die Kinematik und chemische Zusammensetzung von Millionen von Milchstraßensternen einzeln analysieren können und uns so einen Einblick in die Entstehungsgeschichte unserer Galaxie geben. Dank groß angelegter spektroskopischer Himmelsdurchmusterungen lassen sich seit Neuestem auch stellare Populationen in fernen Regionen der Milchstraße systematisch studieren. Dieser Datenreichtum hat das Potential, unseren Blick auf die Entstehung unserer kosmischen Heimat zu revolutionieren, konfrontiert die Forschung aber auch mit neuen beobachtungstechnischen, theoretischen und numerischen Herausforderungen. Das Ziel dieser Arbeit ist es, moderne numerische Modelle der Milchstraße mittels neuer Beobachtungen zu testen. Hierbei benutzen wir vor Allem Infrarotspektroskopiedaten des Apache Point Observatory Galactic Evolution Experiment (APOGEE), sowie asteroseismische Daten der europäischen Exoplanetenmission CoRoT. Wir vergleichen unsere Resultate mit semianalytischen chemischen Entwicklungsmodellen und komplexeren chemodynamischen Simulationen, wobei uns die Kombination von asteroseismischen und spektroskopischen Daten erlaubt, zum ersten Mal die Zeitdimension solcher Modelle zu testen. Mit den CoRoT-APOGEE-Beobachtungen (kurz: CoRoGEE) lassen sich viel präzisere Altersbestimmungen für entfernte Riesensterne berechnen. Ein weiterer wichtiger Bestandteil dieser Arbeit ist die Verwendung sogenannter Mock-Beobachtungen, bei denen ein chemodynamisches Milchstraßenmodell so ``beobachtet'' wird wie die Milchstraße selbst, unter möglichst realistischer Berücksichtigung aller Beobachtungseffekte. Dies erlaubt uns akkuratere Vergleiche von Modellen und Daten, und ermöglicht eine einfachere Interpretation. Der erste Teil dieser Arbeit enthält eine chemodynamische Untersuchung von mehr als 20,000 roten Riesensternen, die sich bis zu 6 kpc (20,000 Lichtjahre) entfernt befinden. Diese Studie, die mit den ersten APOGEE-Daten gemacht wurde, konnte so das galaktische Volumen, das mit hochauflösender Spektroskopie je beobachtet wurde, dramatisch vergrößern. Weil die Sensitivität von APOGEE als Infrarotexperiment weit weniger durch interstellare Extinktion behindert wird, dringt unsere Stichprobe außerdem in die Regionen nahe der galaktischen Ebene vor, die typischerweise von optischen Durchmusterungen vermieden werden. Das erlaubt es uns, die chemodynamischen Eigenschaften der dünnen Milchstraßenscheibe außerhalb der unmittelbaren Sonnenumgebung zu studieren. Wir können beispielsweise zum ersten Mal mit hochauflösender Spektroskopie den radialen Metallizitätsgradienten der Scheibe als Funktion des Abstands von der Scheibenebene messen und zeigen, dass dieser Gradient oberhalb von 1 kpc positiv ist. Außerdem detektieren wir eine Lücke zwischen den Populationen I und II im chemischen [$\alpha$/Fe]-[Fe/H]-Häufigkeitsdiagramm, die im Gegensatz zur früheren Datenerhebungen schwerlich durch Selektionseffekte erklärt werden kann. Da für viele Sterne zudem 6-dimensionale Phasenrauminformationen vorliegen, können wir außerdem chemische Häufigkeitsdiagramme analysieren, in denen stellare Passanten aus anderen galaktischen Regionen ausgeblendet werden. Unsere Daten bestätigen zweifelsfrei die kurze Skalenlänge der dicken Milchstraßenscheibe (Population II). Im zweiten Teil der Arbeit nutzen wir zum ersten Mal kombinierte seismisch-spektroskopische Beobachtungen zum Zwecke der Galaktischen Archäologie. Wir analysieren dabei APOGEE-Beobachtungen von 606 roten Riesensternen in zwei CoRoT-Himmelsfeldern nahe der Galaktischen Ebene. Die Sterne sind über einen weiten Bereich der Galaktischen Scheibe verteilt (4.5 kpc $\lesssim R_{\rm Gal}\lesssim15$ kpc) und decken eine große Altersspanne ab (0.5 Gyr $\lesssim \tau\lesssim$ 13 Gyr), was es uns erlaubt, sowohl die Alters- als auch die radiale Abhängigkeit der [$\alpha$/Fe]-[Fe/H]-Verteilungen zu untersuchen. Dabei konstatieren wir, dass die Altersverteilung der Population-II-Sterne breiter ist als man es für ein monolithisches Kollaps-Szenario der dicken Scheibe erwarten würde. Vor Allem liegt das an einer vorher nicht bekannten, aber signifikanten Population scheinbar junger [$\alpha$/Fe]-reicher Sterne, deren Existenz mit Standardmodellen für die chemische Evolution der Galaktischen Scheibe nicht erklärbar ist. Diese eigentümlichen Objekte sind viel häufiger in der inneren Scheibe zu finden als in der äußeren, was darauf hindeutet, dass zumindest ein Teil dieser Population tatsächlich einen physikalischen Ursprung hat (etwa eine besondere chemische Entwicklung nahe des Galaktischen Balkens) und nicht etwa auf systematische Fehler in der Altersbestimmung zurückzuführen ist. Ein weiteres Resultat ergibt sich aus der Fülle von super-metallreichen Sternen in der äußeren Scheibe: der Effekt radialer Sternmigration scheint dort eine größere Rolle zu spielen als bisher angenommen. Im letzten Teil nutzen wir die CoRoGEE-Stichprobe, um die Zeitentwicklung des radialen Metallizitätsgradienten der dünnen Scheibe zu studieren; eine Unbekannte, die sowohl unter Theoretikern als auch unter Beobachtern in den letzten zwanzig Jahren immer wieder für Diskussionen sorgte. Wir teilen dazu die CoRoGEE-Daten in sechs Altersgruppen ein und erhalten durch eine sorgfältige statistische Analyse der radialen [Fe/H] Verteilungen unter Berücksichtigung systematischer Unsicherheiten verlässliche Werte für den Metallizitätsgradienten. Dessen Anstieg für die junge Population der roten Riesen ($-0.058\pm0.008$ [stat.] $\pm0.003$ [syst.] dex/kpc) ist konsistent mit den neuesten Messungen an Cepheiden. Im Altersbereich $1-4$ Gyr verzeichnen wir einen leicht steileren Gradienten ($-0.066\pm0.007\pm0.002$ dex/kpc), der für ältere Sterne (6--10 Gyr) wieder flacher ausfällt ($\sim-0.03$ dex/kpc). Diese Altersabhängigkeit des Metallizitätsgradienten lässt sich unter anderem durch ein Modell erklären, in dem der Metallizitätsgradient des interstellaren Medium etwa konstant bei $~-0.07$ dex/kpc liegt und in alten stellaren Populationen durch kinematische Effekte wie stellare Migration verwaschen wird. Stellare radiale Migration eröffnet uns außerdem eine elegante Erklärung für die verwundernde Tatsche, dass Sternhaufen mittleren Alters in der Sonnenumgebung oft höhere Metallizitäten aufweisen als junge Haufen. Um das zu erklären, schlagen wir ein Szenario vor, in dem nichtmigrierende Haufen eher durch gravitative Wechselwirkungen in der Scheibe zersöort werden als migrierende, was in der Sonnenumgebung eine Verzerrung zu Gunsten metallreicherer Haufen aus der inneren Scheibe nach sich zöge und, wie ebenfalls beobachtet, zur Folge hätte, dass der Metallizitätsgradient der mittelalten Haufenpopulation viel steiler wäre als der der jungen Haufen. KW - galactic astronomy KW - Milky Way evolution KW - Milky Way chemodynamics KW - red giant stars KW - asteroseismology KW - spectroscopy KW - galaktische Astrophysik KW - Entstehung der Milchstraße KW - Chemodynamik der Milchstraße KW - rote Riesensterne KW - Asteroseismologie KW - Spektroskopie Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-396681 ER - TY - THES A1 - Baumgarten, Franz T1 - Nahrungsergänzungsmittel im Nachwuchssport - Interventionsempfehlungen vor dem Hintergrund der Theorie der Zielsysteme T1 - Nutritional supplements in youth sport - Recommendations for interventions using the theory of goal systems N2 - Aufgrund verschiedener wissenschaftlicher Erkenntnisse wird jungen Sporttreibenden vom Gebrauch von Nahrungsergänzungsmitteln (NEM) abgeraten. Diese Dissertation verfolgt vor dem Hintergrund der Theorie der Zielsysteme (TDZ) das Ziel der Erstellung anwendungsorientieren Handlungswissens, anhand dessen Interventionsempfehlungen zur Reduzierung des prävalenten NEM-Konsums im Nachwuchssport ableitbar sind. Insgesamt wurden sechs Untersuchungen durchgeführt. Die Versuchsteilnehmenden absolvierten in sämtlichen Studien eine Variante der lexikalischen Entscheidungsaufgabe. Diese Aufgabe diente der Operationalisierung von automatisch aktivier- und abrufbaren nahrungsergänzungsmittelbezogenen Ziel-Mittel-Relationen. In einer Stichprobe von Sportstudierenden zeigte sich, dass NEM mit dem Ziel Leistung assoziiert sind (Studie 1). Unter Berücksichtigung des NEM-Konsums wurde dieses Ergebnis für Nachwuchsathletinnen und -athleten aus dem Breitensport repliziert (Studie 2). Zusätzlich konnte in beiden Studien die Bedeutung dieser Ziel-Mittel-Relationen für das Verhalten nachgewiesen werden. In den nachfolgenden Untersuchungen wurden spezifische Veränderungsmechanismen der verhaltensleitenden Ziel-Mittel-Relation aus Leistung und NEM zunächst an Sportstudierenden experimentell evaluiert. Durch das Herausstellen der fehlenden leistungssteigernden Wirkung von NEM konnte diese Zielassoziation nicht modifiziert werden (Studie 3). Das Betonen gesundheitsschädigender Konsequenzen (Studie 4) und das Akzentuieren einer gesunden Ernährung (Studie 5) erwiesen sich demgegenüber als geeignet zur Veränderung der Ziel-Mittel-Relation. Das Herausstellen einer gesunden Ernährung führte deskriptiv bei Nachwuchsathletinnen und -athleten ebenfalls zur Modifikation der Zielassoziation (Studie 6). Die inferenzstatistische Bestätigung der Ergebnisse dieser Studie steht aufgrund der geringen Teststärke der Untersuchung noch aus. Insgesamt verdeutlichen die Ergebnisse, dass die auf Ebene automatischer Kognitionen bestehende und verhaltensleitende Assoziation des Gebrauchs von NEM mit Leistung durch die Akzentuierung gesundheitlicher Perspektiven experimentell verändert werden kann. Abschließend wird die theoretische und praktische Bedeutung des erstellten Handlungswissen für künftige Interventionsempfehlungen zur Reduzierung des Gebrauchs von NEM diskutiert. N2 - Various scientific findings discourage the use of nutritional supplements (NS) among young athletes. In light of the theory of goal systems (TGS) this doctoral thesis aims at the development of academically guided recommendations for intervention approaches that reduce the prevalent NS use. Within this framework, a total of six studies was conducted. In each study participants completed an adapted version of a lexical decision task. This task served to measure NS related goal-means associations that are proposed within the TGS and can be activated and retrieved automatically. In a sample of sport and exercise students NS were associated with the goal performance (study 1). These findings were replicated in a sample of NS using young athletes from amateur sports (study 2). In addition, both studies emphasized the importance of this particular goal-means association for behaviour. The following studies evaluated potential mechanisms for the modification of the behaviour influencing goal-means association between NS and performance in samples of sport and exercise students. Highlighting the lack of performance enhancing effects of NS did not alter the goal-means association between NS and performance (study 3). Rather, the emphasis on the harmful effects of health (study 4) and on healthy diet (study 5) led to significant changes of this particular goal-means association. Highlighting the positive effects of a healthy diet for athletic performance descriptively proved to be a potential mechanism for altering goal-means associations in a sample of young athletes from competitive sports (study 6). Due to the lack of statistical power, the confirmation of this trend using inferential statistics is still pending. Overall, the results of the completed studies illustrate that the automatic and behaviour influencing goal-means associations between NS and performance can be experimentally modified, especially by health-oriented messages. The theoretical and practical relevance of this thesis for future interventions in order to reduce the NS use among young athletes is discussed. KW - Nahrungsergänzungsmittel KW - Nachwuchssport KW - Theorie der Zielsysteme KW - automatische Prozesse KW - Intervention KW - nutritional supplements KW - young athletes KW - theory of goal systems KW - automatic processes KW - intervention Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-405652 ER - TY - THES A1 - Behrends, Nicole T1 - Funktionalisierte OS(T)K-Stäbe und Sensorfluorophore zur optischen Sensorik T1 - Functionalized OS(T)K-rods and dyes for optical sensor systems N2 - Im Rahmen dieser Arbeit wurden zum einen erste Oligospiro(thio)ketal (OS(T)K)-basierte Modellsysteme (molekulare Sonden) für abstandsabhängige Messungen mittels Förster-Resonanz-Energietransfer (FRET) und zum anderen Sensorfluorophore, basierend auf einem DBD-Fluorophor und BAPTA, zur Messung der intrazellulären Calcium-Konzentration dargestellt. Für die Synthese von molekularen Sonden für abstandsabhängige Messungen wurden verschiedenste einfach- und doppelt-markierte OS(T)K-Stäbe entwickelt und spektroskopisch untersucht. Die OS(T)K-Stäbe, sogenannte molekulare Stäbe, dienten als starre Abstandshalter zwischen den Fluorophoren. Als Fluorophore wurden Derivate von 6,7-Dihydroxy-4-methylcoumarin (Donor) und Acyl-DBD (Akzeptor) verwendet, die zusammen ein FRET-Paar bilden. Die Fluorophore wurden so funktionalisiert, dass sie sowohl unbeweglich bzw. „starr“, als auch beweglich bzw. „flexibel“ an den OS(T)K-Stab gebunden werden konnten. Für die Synthese der OS(T)K-Stäbe wurden ebenfalls eine Reihe an unterschiedlich langen und kurzen Stabbausteinen synthetisiert. Auf diese Weise wurden eine Vielzahl an verschiedensten einfach- und doppelt-markierten OS(T)K-Stäben dargestellt, deren Fluorophore sowohl „starr“ als auch „flexibel“ gebunden sind. Die dargestellten Stäbe wurden in verschiedensten Lösungsmitteln spektroskopisch untersucht, um anschließend das Verhalten in Vesikel, die eine biomimetische Umgebung darstellen, zu beurteilen. Es wurde festgestellt, dass sich die Stäbe erfolgreich in die Vesikelmembran einlagerten und hohe FRET-Effizienzen aufweisen. Des Weiteren wurde ein FRET-Paar dargestellt, das sich durch 2-Photonenabsorpion im NIR-Bereich anregen lässt. Es wurde in den lebenden Zellen mittels Fluoreszenzlebenszeitmikroskopie (FLIM) untersucht. Zur Untersuchung von intrazellulärem Calcium wurden zwei verschiedene DBD-Fluorophore über einen kurzen Linker mit dem Calcium-Chelator BAPTA verknüpft. Die dargestellten Fluorophore wurden sowohl in vitro als auch in vivo auf ihre Calcium-Sensitivität überprüft. Mittels FLIM wurden in lebenden Zellen die Fluoreszenzlebenszeitverteilungen der Fluorophore nach Calcium-Konzentrationsänderungen detektiert. N2 - In this work, Oligospiro(thio)ketal (OS(T)K)-based model systems (molecular probes) for distance-dependent measurements by Förster resonance energy transfer (FRET) and sensor dyes, based on [1,3]dioxolo[4,5-f][1,3]benzodioxole (DBD) dyes and BAPTA, for measuring the intracellular calcium concentration, were presented. For synthesis of molecular probes, for distance-dependent measurements, various single and double-labeled OS(T)K rods were developed and examined spectroscopically. The OS(T)K rods, called molecular rods, served as rigid spacers between the fluorophores. The FRET pairs consist of a Coumarin (Cou) dye as donor and a DBD dye as acceptor. Cou and DBD were functionalized in such a way that they could be connected both "rigid" as well as "flexible" to the OS(T)K rod. For synthesis of the OS(T)K rods, a number of different long and short rod units were synthesized. In this way, a variety of different single- and double-labeled OS(T)K rods were presented. The rods were spectroscopically analyzed in various solvents to subsequently evaluate the behavior in large unilamellar vesicles (LUVs) that represent a biomimetic system for cell membranes. It was found that the rods successfully incorporated in the vesicle membrane. Furthermore, a FRET pair was shown that can be excited by 2-photon absorption in the NIR region. It was examined in living cells by fluorescence lifetime microscopy (FLIM). To study intracellular calcium, two different DBD dyes were linked via a short linker to the calcium chelator BAPTA. The dyes were examined for their calcium sensitivity both in vitro and in vivo. Using FLIM, the fluorescence lifetime distributions of the dyes were detected in living cells after calcium concentration changes. KW - DBD KW - Coumarin KW - FRET KW - BAPTA KW - Calcium KW - 2P-FRET KW - OSK KW - OSTK KW - molekulare Stäbe KW - DBD KW - coumarin KW - FRET KW - BAPTA KW - calcium KW - 2P-FRET KW - OSK KW - OSTK KW - molecular rods Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-404213 ER - TY - THES A1 - Bekeraitė, Simona T1 - Distribution functions of rotating galaxies T1 - Verteilungsfunktionen rotierender Galaxien BT - an Integral Field Spectroscopy perspective BT - eine Perspektive der Integrale-Feld-Spektroskopie N2 - The work done during the PhD studies has been focused on measurements of distribution functions of rotating galaxies using integral field spectroscopy observations. Throughout the main body of research presented here we have been using CALIFA (Calar Alto Legacy Integral Field Area) survey stellar velocity fields to obtain robust measurements of circular velocities for rotating galaxies of all morphological types. A crucial part of the work was enabled by well-defined CALIFA sample selection criteria: it enabled reconstructing sample-independent distributions of galaxy properties. In Chapter 2, we measure the distribution in absolute magnitude - circular velocity space for a well-defined sample of 199 rotating CALIFA galaxies using their stellar kinematics. Our aim in this analysis is to avoid subjective selection criteria and to take volume and large-scale structure factors into account. Using stellar velocity fields instead of gas emission line kinematics allows including rapidly rotating early type galaxies. Our initial sample contains 277 galaxies with available stellar velocity fields and growth curve r-band photometry. After rejecting 51 velocity fields that could not be modelled due to the low number of bins, foreground contamination or significant interaction we perform Markov Chain Monte Carlo (MCMC) modelling of the velocity fields, obtaining the rotation curve and kinematic parameters and their realistic uncertainties. We perform an extinction correction and calculate the circular velocity v_circ accounting for pressure support a given galaxy has. The resulting galaxy distribution on the M_r - v_circ plane is then modelled as a mixture of two distinct populations, allowing robust and reproducible rejection of outliers, a significant fraction of which are slow rotators. The selection effects are understood well enough that the incompleteness of the sample can be corrected and the 199 galaxies can be weighted by volume and large-scale structure factors enabling us to fit a volume-corrected Tully-Fisher relation (TFR). More importantly, we also provide the volume-corrected distribution of galaxies in the M_r - v_circ plane, which can be compared with cosmological simulations. The joint distribution of the luminosity and circular velocity space densities, representative over the range of -20 > M_r > -22 mag, can place more stringent constraints on the galaxy formation and evolution scenarios than linear TFR fit parameters or the luminosity function alone. In Chapter 3, we measure one of the marginal distributions of the M_r - v_circ distribution: the circular velocity function of rotating galaxies. The velocity function is a fundamental observable statistic of the galaxy population, being of a similar importance as the luminosity function, but much more difficult to measure. We present the first directly measured circular velocity function that is representative between 60 < v_circ < 320 km s^-1 for galaxies of all morphological types at a given rotation velocity. For the low mass galaxy population 60 < v_circ < 170 km s^-1, we use the HIPASS velocity function. For the massive galaxy population 170 < v_circ < 320 km s^-1, we use stellar circular velocities from CALIFA. The CALIFA velocity function includes homogeneous velocity measurements of both late and early-type rotation-supported galaxies. It has the crucial advantage of not missing gas-poor massive ellipticals that HI surveys are blind to. We show that both velocity functions can be combined in a seamless manner, as their ranges of validity overlap. The resulting observed velocity function is compared to velocity functions derived from cosmological simulations of the z = 0 galaxy population. We find that dark matter-only simulations show a strong mismatch with the observed VF. Hydrodynamic Illustris simulations fare better, but still do not fully reproduce observations. In Chapter 4, we present some other work done during the PhD studies, namely, a method that improves the precision of specific angular measurements by combining simultaneous Markov Chain Monte Carlo modelling of ionised gas 2D velocity fields and HI linewidths. To test the method we use a sample of 25 galaxies from the Sydney-AAO Multi-object Integral field (SAMI) survey that had matching ALFALFA HI linewidths. Such a method allows constraining the rotation curve both in the inner regions of a galaxy and in its outskirts, leading to increased precision of specific angular momentum measurements. It could be used to further constrain the observed relation between galaxy mass, specific angular momentum and morphology (Obreschkow & Glazebrook 2014). Mathematical and computational methods are presented in the appendices. N2 - Die Arbeit, die während dises Promotionsstudiums durchgeführt wurde, konzentrierte sich auf die Messungen von Verteilungsfunktionen rotierender Galaxien, unter Verwendung von integralen Feldspektroskopiebeobachtungen. Im Rahmen der hier vorgestellten Hauptforschung haben wir CALIFA (Calar Alto Legacy Integral Field Area) mit stellaren Geschwindigkeitsfeldern verwendet, um robuste Messungen von Kreisförmigen Geschwindigkeiten für rotierende Galaxien aller Morphologien zu erhalten. Der entscheidende Teil dieser Arbeit wurde durch wohl definierte CALIFA-Probenselektionskriterien ermöglicht: Es ermöglichte die Rekonstruktion von probenunabhängigen Verteilungen von Galaxieneigenschaften. In Kapitel 2 messen wir die Verteilung in absoluten Magnituden für eine wohldefinierte Stichprobe von 199 rotierenden CALIFA-Galaxien unter Berücksichtigung ihrer stellaren Kinematik. Die Selektionseffekte sind verstanden genug damit die Unvollständigkeit der Probe korrigiert werden kann und uns ermöglichen eine volumenkorrigierte Tully-Fisher-Relation (TFR) anzupassen. Noch wichtiger ist es, dass wir auch die volumenkorrigierte Verteilung von Galaxien in der Mr -vcirc Ebene bereitstellen, die mit kosmologischen Simulationen verglichen werden können. In Kapitel 3 messen wir die Kreisgeschwindigkeitsfunktion der rotierenden Galaxien. Die Geschwindigkeitsfunktion ist eine fundamentale, beobachtbare Messgröße der Galaxienpopulationen, welche von ähnlicher Bedeutung ist wie die Helligkeitsfunktion, aber viel schwerer zu messen ist. Wir präsentieren die erste direkt gemessene Kreisgeschwindigkeitsfunktion, die bei einer gegebenen Rotationsgeschwindigkeit zwischen 60 < vcirc < 320 km s ^-1 für Galaxien aller morphologischen Typen repräsentativ ist. Für die Galaxienpopulation mit niedrigen Massen verwenden wir die HIPASSGeschwindigkeitsfunktion. Für die massiven Galaxienpopulationen verwenden wir stellare Kreisgeschwindigkeiten von CALIFA. Die CALIFA-Geschwindigkeitsfunktion umfasst homogene Geschwindigkeitsmessungen sowohl der späten als auch der frühen Rotations-gestützten Galaxien. Wir zeigen, dass beide Geschwindigkeitsfunktionen nahtlos kombiniert werden können, da sich ihre Gültigkeitsbereiche überschneiden. Die resultierende beobachtete Geschwindigkeitsfunktion wird mit Geschwindigkeitsfunktionen verglichen, die von kosmologischen Simulationen bei lokale Galaxien abgeleitet sind. Wir finden, dass dunkle Materie-Simulationen und hydrodynamische Illustris Simulationen reproduzieren immer noch nicht vollständig die Beobachtungen. In Kapitel 4 stellen wir einige andere Arbeiten vor, die während der Promotion durchgeführt wurden. Mathematische und rechnerische Methoden werden in den Anhängen dargestellt. KW - galaxies: kinematics and dynamics KW - Galaxien: Kinematik und Dynamik KW - galaxies: statistics KW - galaxies: evolution KW - Galaxien: Statistiken KW - Galaxien: Evolution Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-420950 ER - TY - THES A1 - Berding, Anja T1 - Kurz-, mittel- und langfristige Effekte einer Schulung für Patienten mit chronisch entzündlichen Darmerkrankungen auf krankheitsbezogene Ängste und Gesundheitskompetenzen T1 - Beneficial short-, medium-, and long-term effects of education on disease-related worries and concerns and health competencies in patients with inflammatory bowel diseases N2 - Menschen mit chronisch entzündlichen Darmerkrankungen (CED) leiden unter vielfältigen körperlichen und psychosozialen Einschränkungen. Wie auch bei anderen chronischen Erkrankungen könnten Patientenschulungen ihr psychisches Befinden verbessern (z.B. De Ridder & Schreurs, 2001; Faller, Reusch & Meng, 2011a; Küver, Becker & Ludt, 2008; Schüssler, 1998; Warsi, Wang, LaValley, Avorn & Solomon, 2004). Für CED liegen jedoch nur wenige Schulungsevaluationen vor (z.B. Bregenzer et al., 2005; Mussell, Böcker, Nagel, Olbrich & Singer, 2003; Oxelmark, Magnusson, Löfberg & Hillerås, 2007), deren Aussagekraft i.d.R. durch methodische Mängel eingeschränkt ist. Daher ist die Bedeutung von Schulungsprogrammen für CED-Betroffene weiterhin offen. Überdies gibt es für den deutschen Sprachraum noch keine Schulung, die zu psychischen Verbesserungen führt. Aus diesem Grunde wurde ein 1,5-tägiges Wochenend-Seminar mit medizinischen und psychologischen Inhalten konzeptionalisiert, manualisiert und in der vorliegenden Studie evaluiert. Zur summativen Evaluation nahmen 181 ambulante CED-Patienten an einer prospektiven, multizentrischen, randomisierten, kontrollierten Studie mit vier Messzeitpunkten teil: vor (T1), zwei Wochen (T2) und drei Monate (T3) nach dem Seminar. Zur 12-Monatskatamnese (T4EG) wurde die Stabilität der Effekte in der Experimentalgruppe (EG; n = 86) überprüft. Die Wartekontrollgruppe (n = 95) erhielt zunächst die Standardbehandlung, also keine Patientenschulung, und konnte an dieser nach der dritten Datenerhebung ebenfalls teilnehmen. Kovarianzanalysen (ANCOVAs) mit Kontrolle für die jeweilige Ausgangslage wurden durchgeführt. Weitere Analysen legten eine Adjustierung für die Krankheitsaktivität zu T1 nahe, weshalb diese als zusätzliche Kovariate in die ANCOVAs aufgenommen wurde. Krankheitsbezogene Ängste und Sorgen (PS-CEDE Gesamtwert zu T3; Krebs, Kachel & Faller, 1998) fungierten als primärer Zielparameter. Zu den sekundären Zielkriterien gehörten Progredienzangst und Angstbewältigung (PA-F-KF und PA-F; Mehnert, Herschbach, Berg, Henrich & Koch, 2006 bzw. Dankert et al., 2003; Herschbach et al., 2005) sowie die Gesundheitskompetenzen Positive Grundhaltung, Aktive Lebensgestaltung und Erwerb von Fertigkeiten und Handlungsstrategien (heiQ; Osborne, Elsworth & Whitfield, 2007; Schuler et al., 2013). Weitere sekundäre Zielparameter waren gesundheitsbezogene Lebensqualität (SF-12; Bullinger & Kirchberger, 1998), Symptome einer Angststörung oder Depression (PHQ-4; Kroenke, Spitzer, Williams & Löwe, 2009; Löwe et al., 2010), Wissen, der Umgang mit der CED bzw. von ihr ausgelösten negativen Gefühlen sowie die Zufriedenheit der Teilnehmenden mit dem Seminar. Von Interesse war außerdem, ob Geschlecht, Alter, Art, Dauer oder Aktivität der Erkrankung vor der Schulung einen Einfluss auf die genannten Variablen hatten und ob für sie differentielle Wirksamkeitseffekte bestanden. Darüber hinaus wurden krankheitsbezogene Ängste und Sorgen von ungeschulten Studienteilnehmern untersucht. Zwei Wochen und drei Monate nach der Schulung ließen sich im Vergleich von Experimental- und Kontrollgruppe signifikante, mittlere bis große Effekte auf krankheitsbezogene Ängste und Sorgen, Progredienzangst und deren Bewältigung sowie eine Positive Grundhaltung der CED gegenüber erzielen (stets p ≤ .001). Außerdem kam es zu beiden Messzeitpunkten zu signifikanten, großen Interventionseffekten auf den Erwerb von Fertigkeiten und Handlungsstrategien im Umgang mit der Erkrankung, das Wissen um sie und den Umgang mit ihr (stets p < .001) sowie zu moderaten Effekten auf den Umgang mit CED-bedingten negativen Gefühlen (T2: p = .001; T3: p = .008). Alle beschriebenen Effekte waren auch nach zwölf Monaten noch stabil. Für Aktive Lebensgestaltung, gesundheitsbezogene Lebensqualität sowie Angst- und Depressionssymptomatik konnten keine Schulungseffekte nachgewiesen werden. Die zusätzliche Kontrolle für die Krankheitsaktivität zu T1 führte zu keinen wesentlichen Änderungen in den Ergebnissen. Auch bei den Subgruppenanalysen hatte die Krankheitsaktivität keinen relevanten Einfluss auf die Wirksamkeit der Schulung. Gleiches gilt für Geschlecht, Alter, Art und Dauer der CED. Mit Ausnahme der Krankheitsaktivität deuteten dies bereits die zur Baseline durchgeführten t-Tests an, bei denen insgesamt nur sehr wenige signifikante, höchstens moderate Unterschiede zwischen den einzelnen Subgruppen auftraten. Sowohl bei der formativen als auch der summativen Evaluation zeigte sich überdies die hohe Zufriedenheit der Teilnehmenden mit der Schulung. Neben der Akzeptanz konnte außerdem die Durchführbarkeit bestätigt werden. Die Auswertung der Ängste und Sorgen der Studienteilnehmenden lieferte zudem Hinweise für die Entwicklung und Modifikation von Interventionen für CED-Betroffene. Es lässt sich festhalten, dass für die hier evaluierte Schulung für CED-Patienten ein Wirksamkeitsnachweis erbracht werden konnte und sie sehr positiv von den Teilnehmenden bewertet wurde. Sie führte sowohl kurz-, mittel- als auch langfristig zu substantiellen Verbesserungen in psychischer Belastung, Selbstmanagement-Fähigkeiten, der Bewältigung der Erkrankung sowie im Wissen und war gleichermaßen wirksam bei Betroffenen, die sich in Geschlecht, Alter, Art, Dauer oder Aktivität ihrer CED unterschieden. N2 - People with inflammatory bowel diseases (IBD) are affected by a wide range of somatic and psychosocial impairments. As in other chronic conditions, patient education might improve their well-being (e.g., De Ridder & Schreurs, 2001; Faller et al., 2011a; Küver et al., 2008; Schüssler, 1998; Warsi et al., 2004). In IBD only a few evaluations of education programs are available (e.g., Bregenzer et al., 2005; Mussell et al., 2003; Oxelmark et al., 2007) whose significance is limited due to several methodological flaws. The impact of education in IBD remains therefore unclear. Furthermore, there is no program contributing to psychological improvements for the German-speaking area so far. Thus, a manualized 1.5-day weekend-seminar for IBD patients, addressing medical and psychological issues, was designed. The main aim of this study was to evaluate it in a large controlled trial. For summative evaluation, 181 outpatients participated in a prospective, multicenter, randomized, waitlist-controlled trial with assessments before (t1) as well as two weeks (t2) and three months (t3) after the seminar. Patients serving as waitlist controls (n = 95) received treatment as usual (no patient education) and were also offered to participate in the intervention after the third data collection. The intervention group (IG, n = 86) was reassessed for stability of effects at the 12-months follow-up (t4IG). Analysis of covariance (ANCOVA) with adjustment for the respective baseline score was used. Due to further analyses, which suggested a control for baseline perceived disease activity, the ANCOVAs were repeated with that additional covariate. Disease-related worries and concerns (IBDPC total score at t3, German validation by Krebs et al., 1998; original: RFIPC by Drossman et al., 1991) were the primary outcome. Secondary outcomes included fear of progression and coping with anxiety (FoP-Q-SF; Mehnert et al., 2006; FoP-Q; Dankert et al., 2003; Herschbach et al., 2005), and the following three health competencies: constructive attitudes and approaches, skill and technique acquisition as well as positive and active engagement in life (heiQ; Osborne et al., 2007; Schuler et al., 2013). Further sec¬ondary outcomes were health-related quality of life (HRQoL; SF-12; Bullinger & Kirchberger, 1998), symptoms of depression and anxiety (PHQ-4; Kroenke et al., 2009; Löwe et al., 2010), disease-related knowledge, coping, and participants’ satisfaction with the seminar. It was also of interest, if patient characteristics like sex, age, type, duration or activity of IBD influenced those variables at baseline and if differential effects of the intervention existed. Moreover, baseline disease-related worries and concerns were analyzed. At two weeks and three months post-intervention, significant medium to large effects on disease-related worries and concerns, fear of progression, and coping with anxiety as well as constructive attitudes and approaches could be achieved (each p ≤ .001). In addition, large significant effects on skill and technique acquisition, knowledge, and coping with IBD (each p < .001) and medium effects on coping with disease-related negative emotions (t2: p = .001; t3: p = .008) were found. All aforementioned effects persisted even after one year. Effects on positive and active engagement in life, HRQoL as well as symptoms of anxiety and depression could not be observed. Additional adjustment for perceived disease activity basically yielded similar results. Moreover, subgroup analyses did not show any relevant influence of disease activity on the effectiveness of the intervention. The same applies to participants’ sex and age as well as their type of IBD and its duration. With the exception of disease activity, this was already suggested by t-tests performed at baseline, which showed only very few significant differences of moderate size between subgroups. Furthermore, for formative and summative evaluation the education program was rated very favorably by the attendees. In addition to its acceptance, its feasibility was confirmed. The results of the analyses of study participants’ disease-related worries and concerns can be used for the develop¬ment and modification of interventions for patients with IBD. In conclusion, the patient education program tested in this study proved to be effective and was appreciated by the attendees. It contributed to substantial short-, medium-, and even long-term improvements in psychological distress, self-management skills, coping with IBD, and knowledge, which were independent of sex, age, type, duration, or activity of IBD. KW - Patientenschulung KW - chronisch entzündliche Darmerkrankungen KW - Krankheitsbewältigung KW - Lebensqualität KW - Selbstmanagement KW - Ängste und Sorgen KW - Progredienzangst KW - Depression KW - Wissen KW - Coping KW - patient education KW - Morbus Crohn KW - Colitis ulcerosa KW - inflammatory bowel disease KW - Crohn's disease KW - ulcerative colitis KW - coping KW - disease management KW - self-management KW - quality of life KW - worries and concerns KW - fear of progression KW - anxiety KW - depression KW - knowledge Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-401063 ER - TY - THES A1 - Berthold, Thomas T1 - Tannine für nachhaltige und funktionale Kohlenstoffmaterialien T1 - Tannins for sustainable and functional carbon materials BT - Synthesestrategien und mögliche Anwendungen BT - synthetic strategies and applications N2 - In Zeiten eines sich schnell ändernden und vielseitigen Energiemarktes müssen Kohlenstoffmaterialien für verschiedene Anforderungen einsetzbar sein. Dies erfordert flexibel synthetisierbare Kohlenstoffmaterialien bevorzugt aus günstigen und nachhaltigen Kohlenstoffquellen. Es ist allerdings nicht leicht Vorläuferverbindungen auszumachen, welche sich einerseits für verschiedene Herstellungsverfahren eignen und deren Kohlenstoffprodukte andererseits in spezifischen Eigenschaften, wie der Struktur, des Stickstoffanteils, der Oberfläche und der Porengrößen, eingestellt werden können. In diesem Zusammenhang können natürliche Polyphenole, etwa überschüssige Tannine aus der Weinproduktion, eine neue Welt zu hoch funktionalen und vielseitig einstellbaren Kohlenstoffmaterialien mit hohen Ausbeuten öffnen. Das Hauptziel dieser vorliegenden Thesis war es neue funktionale, einstellbare und skalierbare nanostrukturierte Kohlenstoffmaterialien aus Tanninen (insbesondere Tanninsäure) für unterschiedliche elektrochemische Zwecke zu synthetisieren und zu charakterisieren. Ermöglicht wurde dies durch unterschiedliche synthetische Herangehensweisen, wie etwa der polymeren Strukturdirektion, dem ionothermalen Templatieren und der weichen Templatierung. An Stelle des weitläufig gebräuchlichen, aber kanzerogenen Vernetzungsagens Formaldehyd wurden bei den vorgestellten Synthesen Harnstoff und Thioharnstoff gewählt, um zugleich die synthetisierten Kohlenmaterialien variabel dotieren zu können. Daher wurden im ersten Teil der Arbeit die Wechselwirkungen, Reaktionen und thermischen Verhaltensweisen von Tanninsäure und Mixturen von Tanninsäure und Harnstoff bzw. Thioharnstoff untersucht, um daraus wichtige Erkenntnisse für die verschiedenen Kohlenstoffsynthesen zu gewinnen. Durch die Verwendung eines polymeren Strukturierungsagenz Pluronic P123 konnten in einer ersten Kohlenstoffsynthese nachhaltige und dotierbare Kohlenstoffpartikel mit Durchmessern im Nanometerbereich aus Tanninsäure und Harnstoff hergestellt werden. Es konnte dabei gezeigt werden, dass durch die Modifikation der verschiedenen Syntheseparameter die Kohlenstoffnanopartikel gemäß ihres gemittelten Partikeldurchmessers, ihrer BET-Oberfläche, ihrer Komposition, ihrer Leitfähigkeit und ihrer chemischen Stabilität einstellbar sind. Dies eröffnete die Möglichkeit diese Kohlenstoffpartikel als alternatives und nachhaltiges Rußmaterial einzusetzen. Weiterhin war es durch die ionothermale Templatierung möglich poröse, dotierte und kontrollierbare Kohlenstoffpartikel mit hohen spezifischen Oberflächen aus den gewählten Präkursorverbindungen zu synthetisieren, die sich für den Einsatz in Superkondensatoren eignen. Auf diesen Erkenntnissen aufbauend konnten mittels der Rotationsbeschichtung poröse binderfreie und strukturierte Kohlenstofffilme synthetisiert werden, die eine spinodale Struktur aufwiesen. Anhand der Modifikation der Stammlösungskonzentration, der Rotationsgeschwindigkeit und der verwendeten Substrate konnten die Filmdicke (100-1000 nm), die Morphologie und Gesamtoberfläche gezielt beeinflusst werden. Die erweiterte elektrochemische Analyse zeigte außerdem ein sehr gut zugängliches Porensystem der porösen Kohlenstofffilme. Allumfassend konnten demnach verschiedene Synthesewege für Kohlenstoffmaterialien aus Tanninen aufgezeigt werden, die verschiedenartig strukturiert und kontrolliert werden können und sich für diverse Anwendungsgebiete eignen. N2 - In times of a fast changing and versatile energy market, carbon materials have to be applicable for various demands.1,2 This requires custom-designed carbons, preferably from cheap and renewable carbon sources. However, it is challenging to find a carbon precursor system, which can be used and tuned either in different kinds of fabrication techniques and/or in properties like structure, nitrogen content, surface area, and pore sizes for specific innovative demands. Using polyphenols such as abundant tannins as carbon-precursor open the box for highly functionalized and versatile tunable carbon materials in combination with high yields. Hence, the main objective of this thesis was to synthesize and characterize new functional, tunable, and scalable nanostructured carbon materials from tannins (especially tannic acid) for different electrochemical purposes. This was targeted by different synthetic strategies including polymeric agent structuring, an ionothermal approach and soft templating.3-6 Moreover, instead of using the cancerogenous formaldehyde as cross-linker, urea and thiourea were used as linking and doping agents.7 In this respect, the first topic dealt with the understanding and investigation of the interactions, reactions and thermal behavior during the pyrolysis step of tannic acid/urea and tannic acid/thiourea mixtures. In a first carbon synthesis the tri-block-polymer Pluronic P123 acted as structuring agent in combination with the natural precursors.4 This enabled the preparation of sustainable and controllable doped carbon spheres with diameters down to 20 nm. Properties, like particle size, BET-surface area, composition, conductivity, and chemical stability could be tuned by controlling synthetic parameters. In addition, specifically synthesized carbon particles from tannic acid and urea showed similar conductivity and performance compared to a commercial conductive soot in a standard Li-battery anode. Therefore, these carbon particles can be considered as an alternative and sustainable soot in the future. Moreover, tunable and highly porous doped carbon spheres could be synthesized by an ionothermal approach. This enables the application of the porous carbon spheres in supercapacitor devices.6 The third part of the thesis benefited from the preliminary outcomes of the first structuring agent based synthesis. Hence, the precursor system composed of tannic acid, urea and Pluronic P123 was used to prepare porous carbon films with spinodal morphology via spin coating. By varying the synthetic conditions such as stock solution concentration and rotation speed, the carbon film thickness could be tuned, which in turn allowed for the control of the total surface area. The enlarged electrochemical analysis showed an accessible pore system of the porous carbon films. In summary, different synthetic strategies for carbon materials from tannins could be shown, which were structured and controlled in various ways. The possible fields of application for these carbon materials reach from conductive soot over supercapacitors to batteries. KW - Tannine KW - Kohlenstoffsynthese KW - Harnstoff KW - Kohlenstoffpartikel KW - Kohlenstofffilme KW - Leitruss KW - Dotierung KW - Pyrolyse KW - tannins KW - carbon synthesis KW - urea KW - carbon particle KW - carbon films KW - conducting soot KW - doping KW - pyrolysis Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407564 ER - TY - THES A1 - Beyhl, Thomas T1 - A framework for incremental view graph maintenance T1 - Ein Framework für die inkrementelle Wartung von Sichten auf Graphen N2 - Nowadays, graph data models are employed, when relationships between entities have to be stored and are in the scope of queries. For each entity, this graph data model locally stores relationships to adjacent entities. Users employ graph queries to query and modify these entities and relationships. These graph queries employ graph patterns to lookup all subgraphs in the graph data that satisfy certain graph structures. These subgraphs are called graph pattern matches. However, this graph pattern matching is NP-complete for subgraph isomorphism. Thus, graph queries can suffer a long response time, when the number of entities and relationships in the graph data or the graph patterns increases. One possibility to improve the graph query performance is to employ graph views that keep ready graph pattern matches for complex graph queries for later retrieval. However, these graph views must be maintained by means of an incremental graph pattern matching to keep them consistent with the graph data from which they are derived, when the graph data changes. This maintenance adds subgraphs that satisfy a graph pattern to the graph views and removes subgraphs that do not satisfy a graph pattern anymore from the graph views. Current approaches for incremental graph pattern matching employ Rete networks. Rete networks are discrimination networks that enumerate and maintain all graph pattern matches of certain graph queries by employing a network of condition tests, which implement partial graph patterns that together constitute the overall graph query. Each condition test stores all subgraphs that satisfy the partial graph pattern. Thus, Rete networks suffer high memory consumptions, because they store a large number of partial graph pattern matches. But, especially these partial graph pattern matches enable Rete networks to update the stored graph pattern matches efficiently, because the network maintenance exploits the already stored partial graph pattern matches to find new graph pattern matches. However, other kinds of discrimination networks exist that can perform better in time and space than Rete networks. Currently, these other kinds of networks are not used for incremental graph pattern matching. This thesis employs generalized discrimination networks for incremental graph pattern matching. These discrimination networks permit a generalized network structure of condition tests to enable users to steer the trade-off between memory consumption and execution time for the incremental graph pattern matching. For that purpose, this thesis contributes a modeling language for the effective definition of generalized discrimination networks. Furthermore, this thesis contributes an efficient and scalable incremental maintenance algorithm, which updates the (partial) graph pattern matches that are stored by each condition test. Moreover, this thesis provides a modeling evaluation, which shows that the proposed modeling language enables the effective modeling of generalized discrimination networks. Furthermore, this thesis provides a performance evaluation, which shows that a) the incremental maintenance algorithm scales, when the graph data becomes large, and b) the generalized discrimination network structures can outperform Rete network structures in time and space at the same time for incremental graph pattern matching. N2 - Heutzutage werden Graphdatenmodelle verwendet um Beziehungen zwischen Entitäten zu speichern und diese Beziehungen später abzufragen. Jede Entität im Graphdatenmodell speichert lokal die Beziehungen zu anderen verknüpften Entitäten. Benutzer stellen Suchanfragen um diese Entitäten und Beziehungen abzufragen und zu modifizieren. Dafür machen Suchanfragen Gebrauch von Graphmustern um alle Teilgraphen in den Graphdaten zu finden, die über bestimmte Graphstrukturen verfügen. Diese Teilgraphen werden Graphmusterübereinstimmung (Match) genannt. Allerdings ist diese Suche nach Matches NP-vollständig für Teilgraphisomorphie. Daher können Suchanfragen einer langen Antwortzeit unterliegen, wenn die Anzahl von Entitäten und Beziehungen in den Graphdaten oder -mustern ansteigt. Eine Möglichkeit die Antwortzeiten von Suchanfragen zu verbessern ist Matches für komplexe Suchanfragen in sogenannten Sichten über die Graphdaten für spätere Suchanfragen bereitzuhalten. Allerdings müssen diese Sichten mittels einer inkrementellen Suche nach Matches gewartete werden um sie konsistent zu den sich ändernden Graphdaten zu halten. Diese Wartung ergänzt Teilgraphen, die Graphmuster erfüllen, in den Sichten und entfernt Teilgraphen, die Graphmuster nicht mehr erfüllen, aus den Sichten. Aktuelle Ansätze für die inkrementelle Suche nach Matches verwenden Rete Netzwerke. Rete Netzwerke sind sogenannte Discrimination Networks, die alle Matches für bestimmte Suchanfragen aufzählen und warten, indem sie ein Netzwerk aus einzelnen Teilgraphmustern anwenden, die zusammen eine vollständige Suchanfrage ergeben. Das Netzwerk speichert für jedes Teilgraphmuster welche Teilgraphen das Teilgraphmuster erfüllen. Daher haben Rete Netzwerke einen hohen Speicherverbrauch, da sie alle Zwischenergebnisse speichern müssen. Jedoch sind es gerade diese gespeicherten Zwischenergebnisse, die es dem Rete Netzwerk ermöglichen die gespeicherten Zwischenergebnisse effizient zu warten, da diese Zwischenergebnisse für das Auffinden neuer Matches ausgenutzt werden. Allerdings existieren andere Arten von Discrimination Networks, die hinsichtlich Speicher- und Zeitverbrauch effizienter sind, aber derzeit nicht für die inkrementelle Suche nach Matches verwendet werden. Diese Doktorarbeit wendet eine verallgemeinerte Art von Discrimination Networks an. Diese verallgemeinerte Art ermöglicht es die Balance zwischen Speicher- und Zeitverbrauch für die inkrementelle Suche nach Matches zu steuern. Dafür stellt diese Arbeit eine Modellierungssprache vor, die es ermöglicht verallgemeinerte Arten von Discrimination Networks effektiv zu spezifizieren. Darauf aufbauend stellt diese Arbeit einen inkrementellen Algorithmus vor, der die gespeicherten Matches effizient und skalierbar wartet. Abschließend stellt diese Arbeit eine Evaluierung vor, die aufzeigt dass die Modellierungssprache eine effektive Spezifikation von verallgemeinerten Discrimination Networks erlaubt. Außerdem zeigt die Evaluierung, dass a) der inkrementelle Wartungsalgorithmus für große Graphdaten skaliert und b) die Netzwerkstrukturen von verallgemeinerten Discrimination Networks im Vergleich zu den Netzwerkstrukturen von Rete Netzwerken im Speicher- und Zeitverbrauch für die inkrementelle Suche nach Matches effizienter sein können. KW - incremental graph pattern matching KW - discrimination networks KW - Rete networks KW - Gator networks KW - model-driven software engineering KW - inkrementelle Graphmustersuche KW - Discrimination Networks KW - Rete Netzwerk KW - Gator Netzwerk KW - modellgetriebene Softwareentwicklung Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-405929 ER - TY - THES A1 - Bleek, Katrin T1 - Phosphonathaltige (Co)Polymere und ihr Einfluss auf die Mineralisation von Calciumphosphat T1 - Phosphonate containing (co)polymers and their influence on the mineralisation of calcium phosphate N2 - In der vorliegenden Arbeit wurden verschiedene Polymere hergestellt, die bestimmte funktionelle Gruppen beinhalten. Diese Gruppen werden zum Teil durch Alkylketten geschützt, zum Teil liegen sie ungeschützt im Polymer vor. Mit diesen Polymeren wurden Untersuchungen mit knochenähnlichen Materialien sogenanntem Calciumphosphat durchgeführt. Es wurde der Einfluss der verschiedenen Polymere auf die Bildung dieser knochenähnlichen Substanzen untersucht und auch der Einfluss auf die Stabilität und das Auflösungsverhalten der Calciumphosphate. Dabei sollte ein besonderes Augenmerk auf die funktionellen Gruppen, sogenannte Phosphonsäuren und deren Ester, die die Phosphonsäuren schützen, gesetzt werden. Es stellte sich heraus, dass bei der Bildung der knochenähnlichen Materialien die Polymere mit Estergruppen eine leichte Förderung der Calciumphosphat-Bildung verursachen, während die ungeschützten Polymere die Bildung des „Knochenmaterials“ sehr stark verzögern. Dieser Effekt verstärkt sich noch, wenn eine weitere bestimmte Komponente zum Polymer hinzukommt und somit ein Copolymer gebildet wird. Diese Copolymere beschleunigen bzw. verlangsamen die Calciumphosphatbildung noch stärker. Werden Polymere mit einem anderen Polymergerüst aber den gleichen Phosphonsäuresetern in den Seitenketten verwendet, ändert sich der Einfluss der Calciumphosphat-Bildung wenig. Verglichen mit Polymeren ohne solche Phosphonsäuregruppen wird erkennbar, dass es weniger die Phosphonsäuregruppe ist, die die Mineralisation beeinflusst, sondern es eher eine Folge der Säure im Polymer ist. Wird die Stabilisierung und Auflösung der Knochenähnlichen Substanzen betrachtet, fällt auf, dass auch hier wieder die Säuren den größten Effekt ausüben. Die Phosphonsäuregruppen scheinen dabei jedoch tatsächlich einen besonderen Effekt auszuüben, da bei diesen die Stabilisierung und auch das Auflösungsvermögen von Calciumphospaht von allen untersuchten Polymeren am größten sind. In der Arbeit konnte außerdem gezeigt werden, dass die Polymere und Copolymere mit Phosphonsäuregruppen einen leicht positiven Effekt auf die Zahngesundheit zeigen. Die Zahl von Bakterien auf der Zahnoberfläche konnte reduziert werden und bei der Untersuchung der Zahnauflösung wurde eine glattere Zahnoberfläche erhalten, jedoch wurde auch mit den untersuchten Polymeren der Zahn im Inneren angegriffen. Weitere Untersuchungen können hier noch genaueren Aufschluss geben. Außerdem sollten auch die Polymere mit dem unterschiedlichen Polymergerüst und Phosphonsäureestergruppen untersucht werden. Letztere Polymere wurden verwendet, um festere “gelartige“ Polymernetzwerke herzustellen und deren Einfluss auf die Calciumphosphatmineralisation zu untersuchen. Es stellte sich heraus, dass ohne das Einbetten einiger Calciumphosphatteilchen keine Bildung von Calciumphospaht an den Materialien ausgelöst wurde, wurden die sogenannten Hydrogele jedoch mit Calciumphosphatpartikeln geimpft, konnte deutliches weiteres Calciumphosphatwachstum beobachtet werden. Das Material lässt sich auch in verschiedene Formen bringen. Somit könnte das System nach weiteren Untersuchungen zur Verträglichkeit mit Zellen oder Geweben ein mögliches Material für Implantate darstellen, mit denen gezielt Knochenwachstum eingeleitet werden könnte. N2 - In the present work, various polymers containing certain functional groups have been prepared. Some of these groups are protected by alkyl chains, some of which are unprotected in the polymer. With these polymers, investigations were carried out with bone-like materials called calcium phosphate. The influence of the different polymers on the formation of these bone-like substances was investigated and also the influence on the stability and the dissolution behavior of the calcium phosphates. Particular attention should be paid to the functional groups, so-called phosphonic acids and their esters, which protect the phosphonic acids. It has been found that in the formation of the bone-like materials, the polymers with ester groups cause easy promotion of calcium phosphate formation, while the unprotected polymers greatly retard formation of the "bone material". This effect is further enhanced when a further specific component is added to the polymer and thus a copolymer is formed. These copolymers accelerate or slow calcium phosphate formation even more. If polymers with a different polymer backbone but the same phosphonic acid in the side chains used, the influence of calcium phosphate formation changes little. Compared with polymers without such phosphonic acid groups, it will be appreciated that it is less the phosphonic acid group that affects mineralization, but rather is a consequence of the acid in the polymer. If the stabilization and dissolution of the bone-like substances is considered, it is noticeable that here too the acids exert the greatest effect. The phosphonic acid groups, however, actually seem to exert a special effect, since in these the stabilization and also the dissolving power of calcium phosphate are the greatest of all the polymers investigated. The work also showed that the polymers and copolymers with phosphonic acid groups have a slightly positive effect on dental health. The number of bacteria on the surface of the tooth could be reduced, and in the study of tooth dissolution, a smoother tooth surface was obtained, but also with the investigated polymers the tooth was attacked inside. Further investigations can provide even more detailed information here. In addition, the polymers with the different polymer backbone and phosphonic ester groups should also be investigated. The latter polymers were used to make firmer "gel-like" polymer networks and study their influence on calcium phosphate mineralization. It was found that without the incorporation of some calcium phosphate particles no formation of calcium phosphate on the materials was initiated, however, the so-called hydrogels were inoculated with calcium phosphate particles, and significant further calcium phosphate growth could be observed. The material can also be put into different shapes. Thus, after further studies on compatibility with cells or tissues, the system could be a potential material for implants to target bone growth. KW - Calciumphosphat KW - Calcium phosphate KW - polymervermittelte Biomineralisation KW - polymer induced Biomineralization KW - phosphonathaltige Polymere KW - phosphonate containing polymers KW - Calcium Bindungsstelle KW - Calcium binding site Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-406630 ER - TY - THES A1 - Braun, Max T1 - Heterogeneous Catalysis for the Conversion of Fructose to Chemicals and Fuel in a Continuous Flow Process T1 - Umsetzung von Fruktose zu Chemikalien und Treibstoff mittels heterogener Katalysatoren in einem kontinuierlichen Prozess N2 - Die Umsetzung von Zucker (Kohlenhydrate) in einem kontinuierlichen Prozess eröffnet Möglichkeiten der Synthese diverser Chemikalien und Treibstoff aus erneuerbaren Ressourcen, welche heute überwiegend aus fossilen Quellen stammen. Passend zum Konzept der Bioraffinerie und der „grünen Chemie“, liegt der Fokus dieser Arbeit auf der Umsetzung von in Ethanol gelöster Fruktose in einem kontinuierlichen Verfahren, mit Hilfe eigens entwickelter heterogener Katalysatoren. Die Dehydratisierung von Fruktose wird mit einem heterogenen Säurekatalysator realisiert, während die Folgeprodukte mittels einer Hydrodesoxygenierung umgesetzt werden. Für den zweiten Schritt kommen Metallkatalysatoren auf Basis von Nickel und Wolframcarbid (WC) zum Einsatz, wodurch der Einsatz teurer Edelmetalle vermieden werden kann. Hauptprodukte des zweistufigen Verfahrens sind 2,5-Dimethylfuran (DMF) und Ethyllevulinat (EL). Beide Moleküle sind vielversprechende alternative Treibstoffe, bzw. können gebräuchlichen Treibstoffen beigemischt werden, um deren Einsatz zu reduzieren und schrittweise zu substituieren. Alternativ können die Zwischenprodukte der Dehydratisierung, sowie DMF und EL weiter zu Chemikalien umgesetzt werden, welche in der Polymersynthese, als Lösungsmittel oder als Grundchemikalien eingesetzt werden können. Die Entwicklung der jeweiligen Katalysatoren für Dehydratisierungs- und Hydrodesoxygenierungsreaktionen erfolgt auf Basis von karbonisierter Biomasse, sowie Wolframcarbid. Die jeweiligen Reaktivitäten werden durch Standardreaktionen getestet, wobei sich Wolframcarbid in Nanopartikelform, in Kombination mit Wasserstoff als sehr aktiv erwiesen hat. Der selbst entwickelte aktivierte Kohlenstoff, das kommerzielle Amberlyst 15, sowie Wolframcarbid mit zusätzlichen Nickel-Nanopartikeln werden für weiterführende Reaktionen in einem kontinuierlichen Prozess herangezogen und kombiniert. Um den Umsatz von Fruktose zu DMF in einer „zwei Reaktoren Anlage“ zu ermöglichen, wird eine Erweiterung eines kommerziellen Reaktorsystems um einen weiteren Reaktor vorgenommen. Die Verweilzeit in der Reaktoranlage beträgt somit ca. 14 Minuten, wobei 11 Minuten auf die erste Säule (Dehydratisierung) und 3 Minuten auf die zweite Säule (Hydrodesoxygenierung) entfallen. In diesem kontinuierlichen und zweistufigen System lassen sich Ausbeuten von 38.5 % DMF und 47 % EL erzielen. Ein kontinuierlicher Lauf von sieben Stunden zeigt die Stabilität der eingesetzten Katalysatoren, auch wenn eine geringe Deaktivierung des Dehydratisierungskatalysators beobachtet werden kann. Der Ni@WC Katalysator zeigte hingegen keine Abnahme der Nickel Konzentration und somit kommt es zu keiner Auswaschung des Metalls. Das gebildete EL wurde hingegen nicht umgesetzt und verbleibt unverändert in Lösung. Das zweistufige System wurde schließlich in einem Mischkatalysatorsystem kombiniert, wobei auf aktivierten und sulfonierten Kohlenstoff zurückgegriffen wurde. Dieser zeigte bereits eine Transferhydrodesoxygenierungsaktivität. Diese Beobachtung ist deshalb bemerkenswert, da erst seit kurzem bekannt ist, dass Graphenstrukturen an sich katalytisch aktiv sein können. Um diese Aktivität weiter zu steigern, wurde der aktivierte Kohlenstoff mit 10 wt% Ni@WC gemischt, sodass beide Katalysatoren in einer Säule vorliegen. Die ursprünglichen 2 % DMF Ausbeute mit reinem aktivierten Kohlenstoff können somit auf 12 % gesteigert werden, da das Folgeprodukt EL hierbei vermieden wird und das Zwischenprodukt „HMF Derivat“ direkt zu DMF weiter reagieren kann. Dieses Ergebnis zeigt das Potential der „ein Reaktor Umsetzung“, weshalb eine kontinuierliche Durchflussreaktoranlage im Litermaßstab als Scale-Up des vorhergehenden Labormaßstabs realisiert wurde. Der 800 mm x 28.5 mm Reaktor bedient eine maximale Flussrate von 50 mL min-1, Drücke von 100 bar und Temperaturen bis zu 500 °C. N2 - The valorization of carbohydrates is one of the most promising fields in green chemistry, as it enables to produce bulk chemicals and fuels out of renewable and abundant resources, instead of further exploiting fossil feedstocks. The focus in this thesis is the conversion of fructose, using dehydration and hydrodeoxygenation reactions. The main goal is to find an easy continuous process, including the solubility of the sugar in a green solvent, the conversion over a solid acid as well as over a metal@tungsten carbide catalyst. At the beginning of this thesis, solid acid catalysts are synthesized by using carbohydrate material like glucose and starch at high temperatures (up to 600 °C). Additionally a third carbon is synthesized, using an activation method based on Ca(OH)2. After carbonization and further sulfonation, using fuming sulfuric acid, the three resulting catalysts are characterized together with sulfonated carbon black and Amberlyst 15 as references. In order to test all solid acid catalysts in reaction, a 250 mm x 4.6 mm stainless steel column is used as a fixed-bed continuous reactor. The temperature (110 °C to 250 °C) and residence time (2 to 30 minutes) is varied, and a direct relationship between contact time and selectivity is determined. The reaction mechanism, as well as the product distribution is showing a dehydration step of fructose towards 5-hydroxymethylfurfural (HMF). These furan-ring molecules are considered as “sleeping giants”, due to the possibility of using them as fuel, but also for upgrading them to chemicals like terephthalic acid or p-xylene. Consecutive reactions are producing levulinic acid, as well as condensation products with ethanol and formic acid. The activated carbon is additionally showing a 2 % yield of 2,5-Dimethylfuran (DMF) production, pointing towards the extraordinary properties of this catalyst. Without a metal catalyst present, what is normally necessary for hydrogenation reactions, a transferhydrogenation (with formic acid) is observed. The active catalyst was therefore carbon itself, what activated the hydrogen on its surface. This phenomenon was just very rarely observed so far. Expensive noble metals are the material of choice, when it comes to hydrogenation reactions nowadays and cheaper alternatives are necessary. By postulating a similar electronic structure of tungsten carbide (WC) to platinum by Lewy and Boudart, research is focusing on the replacement of Pt. The production of nano-sized tungsten carbide particles (7.5 ± 2.5 nm, 70 m2 g-1) is enabled by the so called “urea glass route” and its catalytic performances are compared to commercial material. It is shown, that the activity is strongly dependent on the size of the particles as well as the surface area. Nano-sized tungsten carbide is showing activity for hydrogenation reactions under mild conditions (maximum 150 °C, 30 bar). This material therefore opens up new possibilities for replacing the rare and expensive platinum with tungsten carbide based catalysts. Additionally different metal nanoparticles of palladium, copper and nickel are deposited on top of WC to further promote its reactivity. The nickel nanoparticles are strongly connected to WC and showed the best activity as well as selectivity for upgrading HMF with hydrodeoxygenation. The Ni@WC is not leaching and is showing very good hydrodeoxygenation properties with DMF yields up to 90 percent. Copper@WC is not showing good activity and palladium@WC enables undesired consecutive reactions, hydrogenating the furan ring system. In order to enable the upgrade of fructose to DMF directly in a continuous system, the current H CUBE Pro TM hydrogenation system is customized with a second reaction column. A 250 mm x 4.6 mm stainless steel reactor column is connected ahead of the hydrogen insertion, enabling the dehydration of fructose to HMF derivatives, before pumping these products into the second column for hydrogenation. The overall residence time in the two column reactor system is 14 minutes. The overall results are an almost full conversion with a yield of 38.5 % DMF and 47 % yield of EL. The main disadvantage is the formation of higher mass products, so called humins, which start depositing on top of the catalysts, blocking their active sites. In general it can be stated, that a two column system goes along with a higher investment as well as more maintenance costs, compared to a one column catalytic approach. To develop a catalyst, which is on the one hand able to dehydrate as well as hydrodeoxygenate the reactants, is aimed for at the last part of the thesis. The activated carbon however shows already activity for hydrodeoxygenation without any metal present and offers itself therefore as an alternative to overcome the temperature instability of Amberlyst 15 (max. 120 °C) for a combined DMF production directly from fructose. The activity for the upgrade to DMF is increased from 2 % to 12 % DMF yield in one mixed continuous column. In order to scale up the entire one column approach, an 800 mm x 28.5 mm inner diameter column was planned and manufactured. The system is scaled up and assembled, whereas this flow reactor system is able to be run with 50 mL min-1 maximum flow rate, to stand a pressure of maximum 100 bar and be heated to around 500 °C. The tubing and connections, as well as the used devices are planned according to be safe and easy in use. The scaled-up approach offers a reaction column 120 times bigger (510 ml) then the first extension of the commercial system. This further extension offers the possibility of ranging between 1 and 1000 mL min-1, making it possible to use the approach in pilot plant applications. KW - Biorefinery KW - Catalysis KW - Hydroxymethylfurfural KW - Upgrade of Fructose KW - Bioraffinerie KW - Katalyse KW - Hydroxymethylfurfural KW - Aufarbeitung von Fruktose Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-410370 ER - TY - THES A1 - Bredow, Eva T1 - Geodynamic models of plume-ridge interaction T1 - Geodynamische Modelle der Interaktion von Plumes und Mittelozeanischen Rücken BT - case studies of the Réunion, Iceland and Kerguelen mantle plumes BT - Fallstudien der Réunion-, Island- und Kerguelen-Mantleplumes N2 - According to the classical plume hypothesis, mantle plumes are localized upwellings of hot, buoyant material in the Earth’s mantle. They have a typical mushroom shape, consisting of a large plume head, which is associated with the formation of voluminous flood basalts (a Large Igneous Province) and a narrow plume tail, which generates a linear, age-progressive chain of volcanic edifices (a hotspot track) as the tectonic plate migrates over the relatively stationary plume. Both plume heads and tails reshape large areas of the Earth’s surface over many tens of millions of years. However, not every plume has left an exemplary record that supports the classical hypothesis. The main objective of this thesis is therefore to study how specific hotspots have created the crustal thickness pattern attributed to their volcanic activities. Using regional geodynamic models, the main chapters of this thesis address the challenge of deciphering the three individual (and increasingly complex) Réunion, Iceland, and Kerguelen hotspot histories, especially focussing on the interactions between the respective plume and nearby spreading ridges. For this purpose, the mantle convection code ASPECT is used to set up three-dimensional numerical models, which consider the specific local surroundings of each plume by prescribing time-dependent boundary conditions for temperature and mantle flow. Combining reconstructed plate boundaries and plate motions, large-scale global flow velocities and an inhomogeneous lithosphere thickness distribution together with a dehydration rheology represents a novel setup for regional convection models. The model results show the crustal thickness pattern produced by the plume, which is compared to present-day topographic structures, crustal thickness estimates and age determinations of volcanic provinces associated with hotspot activity. Altogether, the model results agree well with surface observations. Moreover, the dynamic development of the plumes in the models provide explanations for the generation of smaller, yet characteristic volcanic features that were previously unexplained. Considering the present-day state of a model as a prediction for the current temperature distribution in the mantle, it cannot only be compared to observations on the surface, but also to structures in the Earth’s interior as imaged by seismic tomography. More precisely, in the case of the Réunion hotspot, the model demonstrates how the distinctive gap between the Maldives and Chagos is generated due to the combination of the ridge geometry and plume-ridge interaction. Further, the Rodrigues Ridge is formed as the surface expression of a long-distance sublithospheric flow channel between the upwelling plume and the closest ridge segment, confirming the long-standing hypothesis of Morgan (1978) for the first time in a dynamic context. The Réunion plume has been studied in connection with the seismological RHUM-RUM project, which has recently provided new seismic tomography images that yield an excellent match with the geodynamic model. Regarding the Iceland plume, the numerical model shows how plume material may have accumulated in an east-west trending corridor of thin lithosphere across Greenland and resulted in simultaneous melt generation west and east of Greenland. This provides an explanation for the extremely widespread volcanic material attributed to magma production of the Iceland hotspot and demonstrates that the model setup is also able to explain more complicated hotspot histories. The Iceland model results also agree well with newly derived seismic tomographic images. The Kerguelen hotspot has an extremely complex history and previous studies concluded that the plume might be dismembered or influenced by solitary waves in its conduit to produce the reconstructed variable melt production rate. The geodynamic model, however, shows that a constant plume influx can result in a variable magma production rate if the plume interacts with nearby mid-ocean ridges. Moreover, the Ninetyeast Ridge in the model is created by on-ridge activities, while the Kerguelen plume was located beneath the Australian plate. This is also a contrast to earlier studies, which described the Ninetyeast Ridge as the result of the Indian plate passing over the plume. Furthermore, the Amsterdam-Saint Paul Plateau in the model is the result of plume material flowing from the upwelling toward the Southeast Indian Ridge, whereas previous geochemical studies attributed that volcanic province to a separate deep plume. In summary, the three case studies presented in this thesis consistently highlight the importance of plume-ridge interaction in order to reconstruct the overall volcanic hotspot record as well as specific smaller features attributed to a certain hotspot. They also demonstrate that it is not necessary to attribute highly complicated properties to a specific plume in order to account for complex observations. Thus, this thesis contributes to the general understanding of plume dynamics and extends the very specific knowledge about the Réunion, Iceland, and Kerguelen mantle plumes. N2 - Nach der klassischen Plume-Hypothese sind Mantelplumes lokalisierte Aufströme aus heißem, aufsteigenden Material im Erdmantel und haben eine typische pilzförmige Struktur. Sie bestehen aus einem großen Plume-Kopf, der mit der Bildung von voluminösen Flutbasalten (einer Magmatischen Großprovinz) assoziiert wird und einem engen Plume-Schlauch, der eine lineare Kette von Vulkanen mit aufsteigendem Alter (einen Hotspot-Track) erzeugt, indem die tektonische Platte über den relativ stationären Plume wandert. Sowohl Plume-Köpfe als auch Plume-Schläuche formen große Gebiete der Erdoberfläche über viele zehn Millionen Jahre um. Allerdings hat nicht jeder Plume mustergültige Spuren hinterlassen, die die klassische Hypothese unterstützen. Das Hauptziel dieser Arbeit ist daher zu untersuchen, wie ein spezifischer Hotspot den ihm zugeordneten Hotspot-Track erzeugt hat. Mit Hilfe regionaler geodynamischer Modelle stellen sich die Hauptkapitel dieser Arbeit der Herausforderung, die drei individuellen (und zunehmend komplexen) Geschichten des Réunion-, Island- und Kerguelen-Hotspots zu entschlüsseln, wobei insbesondere die Wechselwirkungen zwischen dem jeweiligen Plume und nahegelegenen Mittelozeanischen Rücken im Mittelpunkt stehen. Zu diesem Zweck wird der Mantelkonvektions-Code ASPECT verwendet, um dreidimensionale numerische Modelle zu erstellen, die die spezielle lokale Umgebung jedes Plumes berücksichtigen, indem zeitabhängige Randbedingungen für Temperatur und Mantelströmung vorgeschrieben werden. Die Kombination von rekonstruierten Plattengrenzen und Plattenbewegungen, großräumigen globalen Strömungsgeschwindigkeiten und einer inhomogenen Lithosphärendickenverteilung zusammen mit einer Dehydrierungs-Rheologie stellt eine neue Konfiguration für regionale Konvektionsmodelle dar. Die Modellergebnisse zeigen die vom Plume produzierte Verteilung von vulkanischem Material, die mit heutigen topographischen Strukturen, Schätzungen der Krustendicke und Altersbestimmungen vulkanischer Provinzen verglichen wird. Insgesamt stimmen die Modellergebnisse gut mit den Oberflächenbeobachtungen überein. Darüber hinaus liefert die dynamische Entwicklung der Plumes in den Modellen Erklärungen für die Erzeugung kleinerer, aber charakteristischer vulkanischer Strukturen, deren Herkunft bisher unerklärt war. Betrachtet man den heutigen Zustand eines Modells als Vorhersage für die aktuelle Temperaturverteilung im Mantel, kann man ihn nicht nur mit Beobachtungen an der Oberfläche vergleichen, sondern auch mit Strukturen im Erdinneren, wie sie durch seismische Tomographie abgebildet werden. Genauer gesagt zeigt das Modell im Falle des Réunion-Hotspots, wie die charakteristische Lücke zwischen den Malediven und Chagos aufgrund der Kombination der Geometrie des Mittelozeanischen Rückens und der Interaktion zwischen Plume und Rücken erzeugt wird. Des Weiteren wird der Rodrigues-Rücken als Oberflächenerscheinung eines sublithosphärischen Strömungskanals zwischen dem aufsteigenden Plume und dem nächstgelegenen Segment des Mittelozeanischen Rückens gebildet, was die langjährige Hypothese von Morgan (1978) zum ersten Mal in einem dynamischen Kontext bestätigt. Der Réunion-Plume wurde im Rahmen des seismo- logischen RHUM-RUM-Projektes untersucht, das kürzlich neue seismische Tomographiebilder ergeben hat, die eine exzellente Übereinstimmung mit dem geodynamischen Modell aufweisen. Was den Island-Plume betrifft, so zeigt das numerische Modell, wie sich Plume-Material in einem von Ost nach West verlaufenden Korridor dünner Lithosphäre in Grönland angesammelt haben könnte und zu einer gleichzeitigen Schmelzerzeugung westlich und östlich von Grönland geführt hat. Dies erklärt das extrem weit verbreitete vulkanische Material, das der Magmaproduktion des Island-Hotspots zugeschrieben wird, und demonstriert, dass der Modell-Aufbau auch kompliziertere Hotspot-Geschichten erklären kann. Die Ergebnisse des Island-Modells stimmen ebenfalls gut mit neu erzeugten seismischen Tomographiebildern überein. Der Kerguelen-Hotspot hat eine äußerst komplexe Geschichte und frühere Studien kamen zu dem Schluss, dass der Plume eine zerrissene Struktur oder durch einzelne Wellen im Schlauch beeinflusst sein könnte, um die rekonstruierte variable Schmelzproduktionsrate zu erzeugen. Das geodynamische Modell zeigt jedoch, dass ein konstanter Plume-Einstrom zu einer variablen Magmaproduktionsrate führen kann, wenn der Plume mit nahegelegenen mittelozeanischen Rücken interagiert. Darüber hinaus wird der Neunzig-Grad-Ost-Rücken im Modell am Mittelozeanischen Rücken erschaffen, während der Kerguelen-Plume unter der australischen Platte lag. Dies steht auch im Gegensatz zu früheren Studien, die den Neunzig-Grad-Ost-Rücken als Ergebnis der über den Plume wandernden indischen Platte beschrieben haben. Darüber hinaus ist das Amsterdam-Saint Paul-Plateau im Modell das Ergebnis von Plume-Material, das von der Aufstiegsregion in Richtung des Südostindischen Rückens fließt, wohingegen frühere geochemische Studien diese vulkanische Provinz einem separaten tiefen Plume zugeschrieben haben. Zusammenfassend verdeutlichen die drei in dieser Arbeit präsentierten Fallstudien die Bedeutung der Interaktion zwischen Plume und Mittelozeanischen Rücken für die Rekonstruktion der Verteilung des gesamten vom Hotspot erzeugten vulkanischen Materials sowie von spezifischen kleineren Strukturen, die einem bestimmten Hotspot zugeordnet sind. Es wird auch gezeigt, dass es nicht notwendig ist, einem bestimmten Plume hochkomplizierte Eigenschaften zuzuschreiben, um komplexe Beobachtungen zu erklären. Somit trägt diese Arbeit zum allgemeinen Verständnis der Dynamik von Plumes bei und erweitert das sehr spezifische Wissen über die Réunion-, Island-, und Kerguelen-Mantelplumes. KW - geodynamic models KW - plume-ridge interaction KW - Réunion KW - Iceland KW - Kerguelen KW - mantle plumes KW - geodynamische Modelle KW - Plume-Rücken Interaktion KW - Réunion KW - Island KW - Kerguelen KW - Mantleplumes Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-411732 ER - TY - THES A1 - Carus, Jana T1 - Plant-habitat interactions in brackish marshes T1 - Pflanzen-Habitat Interaktionen in Tidemarschen BT - coping with, adapting to and modifying the environment N2 - Estuarine marshes are ecosystems that are situated at the transition zone between land and water and are thus controlled by physical and biological interactions. Marsh vegetation offers important ecosystem services by filtrating solid and dissolved substances from the water and providing habitat. By buffering a large part of the arriving flow velocity, attenuating wave energy and serving as erosion control for riverbanks, tidal marshes furthermore reduce the destructive effects of storm surges and storm waves and thus contribute to ecosystem-based shore protection. However, in many estuaries, extensive embankments, artificial bank protection, river dredging and agriculture threaten tidal marshes. Global warming might entail additional risks, such as changes in water levels, an increase of the tidal amplitude and a resulting shift of the salinity zones. This can affect the dynamics of the shore and foreland vegetation, and vegetation belts can be narrowed or fragmented. Against this background, it is crucial to gain a better understanding of the processes underlying the spatio temporal vegetation dynamics in brackish marshes. Furthermore, a better understanding of how plant-habitat relationships generate patterns in tidal marsh vegetation is vital to maintain ecosystem functions and assess the response of marshes to environmental change as well as the success of engineering and restoration projects. For this purpose, three research objectives were addressed within this thesis: (1) to explore the possibility of vegetation serving as self-adaptive shore protection by quantifying the reduction of current velocity in the vegetation belt and the morphologic plasticity of a brackish marsh pioneer, (2) to disentangle the roles of abiotic factors and interspecific competition on species distribution and stand characteristics in brackish marshes, and (3) to develop a mechanistic vegetation model that helps analysing the influence of habitat conditions on the spatio-temporal dynamic of tidal marsh vegetation. These aspects were investigated using a combination of field studies and statistical as well as process-based modelling. To explore the possibility of vegetation serving as self-adaptive coastal protection, in the first study, we measured current velocity with and without living vegetation, recorded ramet density and plant thickness during two growing periods at two locations in the Elbe estuary and assessed the adaptive value of a larger stem diameter of plants at locations with higher mechanical stress by biomechanical measurements. The results of this study show that under non-storm conditions, the vegetation belt of the marsh pioneer Bolboschoenus maritimus is able to buffer a large proportion of the flow velocity. We were furthermore able to show that morphological traits of plant species are adapted to hydrodynamic forces by demonstrating a positive correlation between ramet thickness and cross-shore current. In addition, our measurements revealed that thicker ramets growing at the front of the vegetation belt have a significantly higher stability than ramets inside the vegetation belt. This self-adaptive effect improves the ability of B. maritimus to grow and persist in the pioneer zone and could provide an adaptive value in habitats with high mechanical stress. In the second study, we assessed the distribution of the two marsh species and a set of stand characteristics, namely aboveground and belowground biomass, ramet density, ramet height and the percentage of flowering ramets. Furthermore, we collected information on several abiotic habitat factors to test their effect on plant growth and zonation with generalised linear models (GLMs). Our results demonstrate that flow velocity is the main factor controlling the distribution of Bolboschoenus maritimus and Phragmites australis. Additionally, inundation height and duration, as well as intraspecific competition affect distribution patterns. This study furthermore shows that cross-shore flow velocity does not only directly influence the distribution of the two marsh species, but also alters the plants’ occurrence relative to inun-dation height and duration. This suggests an effect of cross-shore flow velocity on their tolerance to inundation. The analysis of the measured stand characteristics revealed a negative effect of total flow velocity on all measured parameters of B. maritimus and thus confirmed our expectation that flow velocity is a decisive stressor which influences the growth of this species. To gain a better understanding of the processes and habitat factors influencing the spatio-temporal vegetation dynamics in brackish marshes, I built a spatially explicit, mechanistic model applying a pattern-oriented modelling approach. A sensitivity analysis of the para-meters of this dynamic habitat-macrophyte model HaMac suggests that rhizome growth is the key process for the lateral dynamics of brackish marshes. From the analysed habitat factors, P. australis patterns were mainly influenced by flow velocity. The competition with P. australis was of key importance for the belowground biomass of B. maritimus. Concerning vegetation dynamics, the model results emphasise that without the effect of flow velocity the B. maritimus vegetation belt would expand into the tidal flat at locations with present vegetation recession, suggesting that flow velocity is the main reason for vegetation recession at exposed locations. Overall, the results of this thesis demonstrate that brackish marsh vegetation considerably contributes to flow reduction under average flow conditions and can hence be a valuable component of shore-protection schemes. At the same time, the distribution, growth and expansion of tidal marsh vegetation is substantially influenced by flow. Altogether, this thesis provides a clear step forward in understanding plant-habitat interactions in tidal marshes. Future research should integrate studies of vertical marsh accretion with research on the factors that control the lateral position of marshes. N2 - Tidemarschen sind Ökosysteme, die sich am Übergang zwischen Land und Wasser befinden und deshalb von Wechselwirkungen zwischen physikalischen und biologischen Prozessen beherrscht werden. Marschvegetation bietet wichtige Ökosystemleistungen, wie das Filtern von festen und gelösten Stoffen aus dem Wasser und die Bereitstellung von Lebensraum für Tiere. Außerdem verringern Marschen die zerstörerische Wirkung von Sturmfluten und Sturmwellen und tragen so zu einem ökosystembasierten Uferschutz bei. Doch in vielen Fluss­mündungen bedrohen umfangreiche Eindeichungen, künstlicher Uferschutz, Fluss­ver­tiefun­gen und die Landwirtschaft die Tidemarschen. Die globale Erwärmung könnte zusätz­liche Risiken, wie etwa Änderungen der Wasserstände, eine weitere Erhöhung der Gezeiten­amplitude und eine daraus resultierende Verschiebung der Salinitätszonen mit sich bringen. Dies kann die Dynamik der Ufer- und Vorlandvegetation beeinflussen und die Vegetations­gürtel verschmälern oder fragmentieren. Vor diesem Hintergrund ist es entscheidend, ein besseres Verständnis der Prozesse zu erlangen, die der raum-zeitlichen Vegetationsdynamik in Tidemarschen zugrunde liegen. Darüber hinaus ist sind zusätzliche Erkenntnisse darüber, wie Pflanzen-Umwelt-Beziehungen die Muster in Marschen beeinflussen, von entscheidender Bedeutung um Ökosystemfunktionen aufrechtzuerhalten und die Reaktion von Marschen auf Umweltveränderungen sowie den Erfolg von Ingenieur- und Restaurierungsprojekten zu bewerten. Zu diesem Zweck wurden in dieser Arbeit drei Forschungsziele gesetzt: (1) das Erforschen der Möglichkeit der Vegetation als selbstanpassender Uferschutz zu dienen, (2) das Ermitteln der Rolle verschiedener Faktoren auf die Artenverbreitung und verschiedene Pflanzen­merk­male in Tidemarschen und (3) die Entwicklung eines prozess-basierten Vegetations­modells, das die Analyse des Einflusses von Lebensraumbedingungen auf die raum-zeitliche Dynamik der Marschvegetation unterstützt. Diese Aspekte wurden anhand einer Kombination von Feld­studien und statistischer sowie prozessbasierter Modellierung untersucht. Ins­gesamt zeigen die Ergebnisse dieser Arbeit, dass die Marschvegetation erheblich zur Strömungsreduktion unter durchschnittlichen Strömungsverhältnissen beiträgt und somit ein wertvoller Bestandteil von Uferschutzsystemen sein kann. Darüber hinaus konnte Strömung als Hauptfaktor für die Verbreitung, das Wachstum und die Expansion von Marschvegetation identifiziert werden. Diese Arbeit trägt maßgeblich zur Verbesserung des Verständnisses von Pflanzen-Habitat Interaktionen in Tidemarschen bei. Zukünftige Forschung sollte Studien des vertikalen Marschwachstums mit der Analyse der Faktoren, die die laterale Position der Marschen kontrollieren verknüpfen. KW - plant-habitat interactions KW - estuary KW - ecological modelling KW - Pflanzen-Habitat Interaktionen KW - Ästuar KW - ökologische Modellierung Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-404966 ER - TY - THES A1 - Charan, Himanshu T1 - Self assembled transmembrane protein polymer conjugates for the generation of nano thin membranes and micro compartments T1 - Selbstassemblierte Transmembranprotein-Polymer Konjugate für die Herstellung von nanodünnen Membranen und Mikrokompartimenten N2 - This project was focused on generating ultra thin stimuli responsive membranes with an embedded transmembrane protein to act as the pore. The membranes were formed by crosslinking of transmembrane protein polymer conjugates. The conjugates were self assembled on air water interface and the polymer chains crosslinked using a UV crosslinkable comonomer to engender the membrane. The protein used for the studies reported herein was one of the largest transmembrane channel proteins, ferric hydroxamate uptake protein component A (FhuA), found in the outer membrane of Escherichia coli (E. coli). The wild type protein and three genetic variants of FhuA were provided by the group of Prof. Schwaneberg in Aachen. The well known thermo responsive poly(N isopropylacrylamide) (PNIPAAm) and the pH and thermo responsive polymer poly((2-dimethylamino)ethyl methacrylate) (PDMAEMA) were conjugated to FhuA and the genetic variants via controlled radical polymerization (CRP) using grafting from technique. These polymers were chosen because they would provide stimuli handles in the resulting membranes. The reported polymerization was the first ever attempt to attach polymer chains onto a membrane protein using site specific modification. The conjugate synthesis was carried out in two steps – a) FhuA was first converted into a macroinitiator by covalently linking a water soluble functional CRP initiator to the lysine residues. b) Copper mediated CRP was then carried out in pure buffer conditions with and without sacrificial initiator to generate the conjugates. The challenge was carrying out the modifications on FhuA without denaturing it. FhuA, being a transmembrane protein, requires amphiphilic species to stabilize its highly hydrophobic transmembrane region. For the experiments reported in this thesis, the stabilizing agent was 2 methyl 2,4-pentanediol (MPD). Since the buffer containing MPD cannot be considered a purely aqueous system, and also because MPD might interfere with the polymerization procedure, the reaction conditions were first optimized using a model globular protein, bovine serum albumin (BSA). The optimum conditions were then used for the generation of conjugates with FhuA. The generated conjugates were shown to be highly interfacially active and this property was exploited to let them self assemble onto polar apolar interfaces. The emulsions stabilized by particles or conjugates are referred to as Pickering emulsions. Crosslinking conjugates with a UV crosslinkable co monomer afforded nano thin micro compartments. Interfacial self assembly at the air water interface and subsequent UV crosslinking also yielded nano thin, stimuli responsive membranes which were shown to be mechanically robust. Initial characterization of the flux and permeation of water through these membranes is also reported herein. The generated nano thin membranes with PNIPAAm showed reduced permeation at elevated temperatures owing to the resistance by the hydrophobic and thus water-impermeable polymer matrix, hence confirming the stimulus responsivity. Additionally, as a part of collaborative work with Dr. Changzhu Wu, TU Dresden, conjugates of three enzymes with current/potential industrial relevance (candida antarctica lipase B, benzaldehyde lyase and glucose oxidase) with stimuli responsive polymers were synthesized. This work aims at carrying out cascade reactions in the Pickering emulsions generated by self assembled enzyme polymer conjugate. N2 - Im Rahmen dieses Projekts wurden ultradünne Stimuli responsive Membranen hergestellt, in die ein Transmembranprotein als Pore eingebettet ist. Die Membranen wurden durch das Verlinken von Transmembranprotein-Polymer Konjugaten an Grenzflächen hergestellt. Dazu wurden Konjugate an der Luft-Wasser-Grenzfläche selbstassembliert und die Polymerketten unter Verwendung eines UV-vernetzbaren Comonomers vernetzt. Als Protein wurde einer der größten Transmembran-Proteinkanäle, welcher sich in der Natur in der äußeren Membran von Escherichia coli (E. coli) findet, verwendet, nämlich ferric hydroxamate uptake protein component A (FhuA). Das Wildtyp-Protein und drei genetische Varianten von FhuA wurden von der Gruppe von Prof. Schwaneberg in Aachen zur Verfügung gestellt. Das bekannte thermo responsive Poly(N-isopropylacrylamid) (PNIPAAm) und das pH- und thermo responsive Polymer Poly((2-dimethylamino) ethylmethacrylat) (PDMAEMA) wurden über kontrollierte radikalische Polymerisationen (CRP) via der grafting-from Technik an FhuA und die genetischen Varianten konjugiert. Diese responsiven Polymere wurden ausgewählt, weil die Eigenschaften der resultierenden Membranen folglich durch äußere Einflusse verändert werden können. Dabei handelt es sich um das erste Beispiel, Polymerketten von einem Membranprotein ortsspezifisch zu synthetisieren. Die Konjugatsynthese wurde in zwei Schritten durchgeführt - a) zuerst wurde ein FhuA Makroinitiator durch Anbinden funktioneller CRP Initiatoren an die Lysinreste des Proteins dargestellt. B) durch Kupfer-vermittelte CRP wurden dann in Pufferlösung sowohl mit als auch ohne Opferinitiator die Konjugate synthetisiert. Die Herausforderung bestand darin, FhuA zu modifizieren ohne das Protein dabei zu denaturieren. Als Transmembranprotein benötigt FhuA amphiphile Agentien, um seine hydrophobe Transmembran Region zu stabilisieren. Für die im Rahmen dieser Arbeit durchgeführten Experimente war das stabilisierende Agens 2-Methyl-2,4-pentandiol (MPD). Da der MPD-Puffer nicht als rein wässriges Medium betrachtet werden kann, und auch, weil MPD das Polymerisationsverfahren beeinflussen könnte, wurden die Reaktionsbedingungen zunächst unter Verwendung eines globulären Modellproteins, nämlich Rinderserumalbumin (BSA), optimiert. Die optimalen Bedingungen wurden dann für die Erzeugung von Konjugaten mit FhuA verwendet. Die Konjugate zeigten eine hohe Grenzflächenaktivität und diese Eigenschaft wurde für die Selbstassemblierung an polaren/apolaren Grenzflächen ausgenutzt. Wurden Emulsionen durch die Konjugate stabilisiert, so bezeichnet man dies als Pickering-Emulsionen. Das Vernetzen von Konjugaten mit einem UV-vernetzbaren Co-Monomer führt zu nano-dünnen Mikrokompartimenten. Die Selbstassemblierung an der Luft-Wasser-Grenzfläche und anschließende UV-Vernetzung ergaben nano-dünne, Stimuli-responsive Membranen, die sich als mechanisch robust erwiesen. Eine erste Charakterisierung des Flusses und der Permeation von Wasser durch die Membranen wird ebenfalls in dieser Arbeit beschrieben. Die erzeugten nano dünnen Membranen mit PNIPAAm zeigten eine verminderte Permeation bei erhöhten Temperaturen aufgrund der nun hydrophoben und damit wasserundurchlässigen Polymermatrix. Darüber hinaus wurden für eine Kooperation mit Dr. Changzhu Wu, TU Dresden, Konjugate von drei Enzymen mit industrieller Relevanz (Candida antarctica Lipase B, Benzaldehydlyase und Glucose-Oxidase) synthetisiert. Diese Arbeit zielt auf Kaskadenreaktionen in Pickering-Emulsionen, die durch selbstassemblierte Enzym-Polymer Konjugate katalysiert werden. KW - FhuA KW - transmembrane protein KW - protein-polymer conjugate KW - controlled radical polymerization KW - ultra-thin membrane KW - FhuA KW - Transmembranprotein KW - Protein-Polymer Konjugaten KW - kontrollierte radikalische Polymerisationen KW - ultradünne Membranen Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-402060 SP - xii, 138 ER - TY - THES A1 - Che, Xiaoyin T1 - E-lecture material enhancement based on automatic multimedia analysis T1 - Online-Vorlesung Materialverbesserung basierend auf automatischer Multimedia-Analyse N2 - In this era of high-speed informatization and globalization, online education is no longer an exquisite concept in the ivory tower, but a rapidly developing industry closely relevant to people's daily lives. Numerous lectures are recorded in form of multimedia data, uploaded to the Internet and made publicly accessible from anywhere in this world. These lectures are generally addressed as e-lectures. In recent year, a new popular form of e-lectures, the Massive Open Online Courses (MOOCs), boosts the growth of online education industry and somehow turns "learning online" into a fashion. As an e-learning provider, besides to keep improving the quality of e-lecture content, to provide better learning environment for online learners is also a highly important task. This task can be preceded in various ways, and one of them is to enhance and upgrade the learning materials provided: e-lectures could be more than videos. Moreover, this process of enhancement or upgrading should be done automatically, without giving extra burdens to the lecturers or teaching teams, and this is the aim of this thesis. The first part of this thesis is an integrated framework of multi-lingual subtitles production, which can help online learners penetrate the language barrier. The framework consists of Automatic Speech Recognition (ASR), Sentence Boundary Detection (SBD) and Machine Translation (MT), among which the proposed SBD solution is major technical contribution, building on Deep Neural Network (DNN) and Word Vector (WV) and achieving state-of-the-art performance. Besides, a quantitative evaluation with dozens of volunteers is also introduced to measure how these auto-generated subtitles could actually help in context of e-lectures. Secondly, a technical solution "TOG" (Tree-Structure Outline Generation) is proposed to extract textual content from the displaying slides recorded in video and re-organize them into a hierarchical lecture outline, which may serve in multiple functions, such like preview, navigation and retrieval. TOG runs adaptively and can be roughly divided into intra-slide and inter-slides phases. Table detection and lecture video segmentation can be implemented as sub- or post-application in these two phases respectively. Evaluation on diverse e-lectures shows that all the outlines, tables and segments achieved are trustworthily accurate. Based on the subtitles and outlines previously created, lecture videos can be further split into sentence units and slide-based segment units. A lecture highlighting process is further applied on these units, in order to capture and mark the most important parts within the corresponding lecture, just as what people do with a pen when reading paper books. Sentence-level highlighting depends on the acoustic analysis on the audio track, while segment-level highlighting focuses on exploring clues from the statistical information of related transcripts and slide content. Both objective and subjective evaluations prove that the proposed lecture highlighting solution is with decent precision and welcomed by users. All above enhanced e-lecture materials have been already implemented in actual use or made available for implementation by convenient interfaces. N2 - In der Ära der mit Hochgeschwindigkeit digitalisierten und globalisierten Welt ist die Online-Bildung nicht mehr ein kunstvoller Begriff im Elfenbeinturm, sondern eine sich schnell entwickelnde Industrie, die für den Alltag der Menschen eine wichtige Rolle spielt. Zahlreiche Vorlesungen werden digital aufgezeichnet und im Internet Online zur Verfügung gestellt, so dass sie vom überall auf der Welt erreichbar und zugänglich sind. Sie werden als e-Vorlesungen bezeichnet. Eine neue Form der Online-Bildung namens „Massive Open Online Courses“ (MOOCs), welche zum Trend seit dem letzten Jahr geworden ist, verstärket und beschleunigt die Entwicklung des Online-Lernens. Ein Online-Lernen Anbieter hat nicht nur die Qualität des Lerninhaltes sondern auch die Lernumgebung und die Lerntools ständig zu verbessern. Eine diese Verbesserungen ist die Form, in der das Lernmaterial aktualisiert und angeboten wird. Das Ziel dieser Dissertation ist die Untersuchung und die Entwicklung von Tools, die der Prozess der Verbesserung und Aktualisierung des Lernmaterials automatisch durchführen. Die entwickelten Tools sollen das Lehrerteam entlasten und seine Arbeit beschleunigen. Der erste Teil der Dissertation besteht aus einem integrierten Framework für die Generierung von mehrsprachigen Untertiteln. Dies kann den Online-Lernern ermöglichen, die Sprachbarriere beim Lernen zu überwinden. Das Framework besteht aus „Automatic Speech Recognition“ (ASR), „Sentence Boundary Detection“ (SBD), und „Machine Translation“ (MT). SBD ist realisiert durch die Anwendung von „Deep Neural Network“ (DNN) und „Word Vector“ (WV), wodurch die Genauigkeit der Stand der Technik erreicht ist. Außerdem quantitative Bewertung durch Dutzende von Freiwilligen ist also eingesetzt, um zu evaluieren, wie diese automaisch generierten Untertiteln in den E-Vorlesungen helfen können. Im zweiten Teil ist eine technische Lösung namens „Tree-Structure Outline Generation“ (TOG) für die Extraktion des textuellen Inhalts aus den Folien präsentiert. Der extrahierten Informationen werden dann in strukturierter Form dargestellt, welche die Outline der Vorlesung wiederspiegelt. Diese Darstellung kann verschiedenen Funktionen dienen, wie dem Vorschau, der Navigation, und dem Abfragen des Inhaltes. TOG ist adaptiv und kann grob in Intra-Folie und Inter-Folien Phasen unterteilt werden. Für diese Phasen, Tabellenerkennung und die Segmentierung von Vorlesungsvideo können als Sub- oder Post-Applikation jeweils implementiert werden. Die höhere Genauigkeit der extrahierten Outline, der Tabellen, und der Segmenten wird experimentell durch die Anwendung auf verschieden e-Vorlesungen gezeigt. Basierend auf den Untertiteln und dem Outline, die in vorher generiert wurden, Vorlesungsvideos können weiter in Satzeinheiten und Folien-basierten Segmenteinheiten gesplittet werden. Ein Hervorhebungsprozess wird weiter auf diese Einheiten angewendet, um die wichtigsten Teile innerhalb der entsprechenden Vorlesung zu erfassen und zu markieren. Dies entspricht genau, was die Lerner mit einem Stift beim Lesen von Büchern machen. Die Satz-Level-Hervorhebung hängt von der akustischen Analyse auf der Audiospur ab, während die Segment-Level-Hervorhebung auf die Erforschung von Hinweisen aus den statistischen Informationen der verwandten Transkripte und des Folieninhalts fokussiert. Die objektiven und subjektiven Auswertungen zeigen, dass die vorgeschlagene Vorlesungsvorhebungslösung mit anständiger Präzision und von den Benutzern akzeptiert wird. All diese Methoden für die Verbesserung der Online-Materialien wurden bereits für den Einsatz implementiert und durch komfortable Schnittstellen zur Verfügung gestellt. KW - E-Learning KW - deep learning KW - NLP KW - document analysis KW - E-Learning KW - Deep Learning KW - natürliche Sprachverarbeitung KW - Dokument Analyse Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-408224 ER - TY - THES A1 - Christgau, Steffen T1 - One-sided communication on a non-cache-coherent many-core architecture T1 - Einseitige Kommunikation auf einer nicht-cache-kohärenten Vielkern-Prozessorarchitektur N2 - Aktuelle Mehrkernprozessoren stellen parallele Systeme dar, die den darauf ausgeführten Programmen gemeinsamen Speicher zur Verfügung stellen. Sowohl die ansteigende Kernanzahlen in sogenannten Vielkernprozessoren (many-core processors) als auch die weiterhin steigende Leistungsfähigkeit der einzelnen Kerne erfordert hohe Bandbreiten, die das Speichersystem des Prozessors liefern muss. Hardware-basierte Cache-Kohärenz stößt in aktuellen Vielkernprozessoren an Grenzen des praktisch Machbaren. Dementsprechend müssen alternative Architekturen und entsprechend geeignete Programmiermodelle untersucht werden. In dieser Arbeit wird der Single-Chip Cloud Computer (SCC), ein nicht-cachekohärenter Vielkernprozessor betrachtet, der aus 48, über ein Gitternetzwerk verbundenen Kernen besteht. Obwohl der Prozessor für nachrichten-basierte Kommunikation entwickelt worden ist, zeigen die Ergebnisse dieser Arbeit, dass einseitige Kommunikation auf Basis gemeinsamen Speichers effizient auf diesem Architekturtyp realisiert werden kann. Einseitige Kommunikation ermöglicht Datenaustausch zwischen Prozessen, bei der der Empfänger keine Details über die stattfindende Kommunikation besitzen muss. Im Sinne des MPI-Standards ist so ein Zugriff auf Speicher entfernter Prozesse möglich. Zur Umsetzung dieses Konzepts auf nicht-kohärenten Architekturen werden in dieser Arbeit sowohl eine effiziente Prozesssynchronisation als auch ein Kommunikationsschema auf Basis von software-basierter Cache-Kohärenz erarbeitet und untersucht. Die Prozesssynchronisation setzt das Konzept der general active target synchronization aus dem MPI-Standard um. Ein existierendes Klassifikationsschema für dessen Implementierungen wird erweitert und zur Identifikation einer geeigneten Klasse für die nicht-kohärente Plattform des SCC verwendet. Auf Grundlage der Klassifikation werden existierende Implementierungen analysiert, daraus geeignete Konzepte extrahiert und ein leichtgewichtiges Synchronisationsprotokoll für den SCC entwickelt, das sowohl gemeinsamen Speicher als auch ungecachete Speicherzugriffe verwendet. Das vorgestellte Schema ist nicht anfällig für Verzögerungen zwischen Prozessen und erlaubt direkte Kommunikation sobald beide Kommunikationspartner dafür bereit sind. Die experimentellen Ergebnisse zeigen ein sehr gutes Skaliserungsverhalten und eine fünffach geringere Latenz für die Prozesssynchronisation im Vergleich zu einer auf Nachrichten basierenden MPI-Implementierung des SCC. Für die Kommunikation wird mit SCOSCo ein auf gemeinsamen Speicher und software-basierter Cache-Kohärenz basierenden Konzept vorgestellt. Entsprechende Anforderungen an die Kohärenz, die dem MPI-Standard entsprechen, werden aufgestellt und eine schlanke Implementierung auf Basis der Hard- und Software-Funktionalitäten des SCCs entwickelt. Trotz einer aufgedecktem Fehlfunktion im Speichersubsystem des SCC kann in den experimentellen Auswertungen von Mikrobenchmarks eine fünffach verbesserte Bandbreite und eine nahezu vierfach verringerte Latenz beobachtet werden. In Anwendungsexperimenten, wie einer dreidimensionalen schnellen Fourier-Transformation, kann der Anteil der Kommunikation an der Laufzeit um den Faktor fünf reduziert werden. In Ergänzung dazu werden in dieser Arbeit Konzepte aufgestellt, die in zukünftigen Architekturen, die Cache-Kohärenz nicht auf einer globalen Ebene des Prozessors liefern können, für die Umsetzung von Software-basierter Kohärenz für einseitige Kommunikation hilfreich sind. N2 - Contemporary multi-core processors are parallel systems that also provide shared memory for programs running on them. Both the increasing number of cores in so-called many-core systems and the still growing computational power of the cores demand for memory systems that are able to deliver high bandwidths. Caches are essential components to satisfy this requirement. Nevertheless, hardware-based cache coherence in many-core chips faces practical limits to provide both coherence and high memory bandwidths. In addition, a shift away from global coherence can be observed. As a result, alternative architectures and suitable programming models need to be investigated. This thesis focuses on fast communication for non-cache-coherent many-core architectures. Experiments are conducted on the Single-Chip Cloud Computer (SCC), a non-cache-coherent many-core processor with 48 mesh-connected cores. Although originally designed for message passing, the results of this thesis show that shared memory can be efficiently used for one-sided communication on this kind of architecture. One-sided communication enables data exchanges between processes where the receiver is not required to know the details of the performed communication. In the notion of the Message Passing Interface (MPI) standard, this type of communication allows to access memory of remote processes. In order to support this communication scheme on non-cache-coherent architectures, both an efficient process synchronization and a communication scheme with software-managed cache coherence are designed and investigated. The process synchronization realizes the concept of the general active target synchronization scheme from the MPI standard. An existing classification of implementation approaches is extended and used to identify an appropriate class for the non-cache-coherent shared memory platform. Based on this classification, existing implementations are surveyed in order to find beneficial concepts, which are then used to design a lightweight synchronization protocol for the SCC that uses shared memory and uncached memory accesses. The proposed scheme is not prone to process skew and also enables direct communication as soon as both communication partners are ready. Experimental results show very good scaling properties and up to five times lower synchronization latency compared to a tuned message-based MPI implementation for the SCC. For the communication, SCOSCo, a shared memory approach with software-managed cache coherence, is presented. According requirements for the coherence that fulfill MPI's separate memory model are formulated, and a lightweight implementation exploiting SCC hard- and software features is developed. Despite a discovered malfunction in the SCC's memory subsystem, the experimental evaluation of the design reveals up to five times better bandwidths and nearly four times lower latencies in micro-benchmarks compared to the SCC-tuned but message-based MPI library. For application benchmarks, like a parallel 3D fast Fourier transform, the runtime share of communication can be reduced by a factor of up to five. In addition, this thesis postulates beneficial hardware concepts that would support software-managed coherence for one-sided communication on future non-cache-coherent architectures where coherence might be only available in local subdomains but not on a global processor level. KW - parallel programming KW - middleware KW - Message Passing Interface KW - one-sided communication KW - software-based cache coherence KW - process synchronization KW - parallele Programmierung KW - einseitige Kommunikation KW - Software-basierte Cache-Kohärenz KW - Prozesssynchronisierung KW - Message Passing Interface KW - Middleware Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403100 ER - TY - THES A1 - Danken, Thomas T1 - Coordination of wicked problems T1 - Koordination vertrackter Probleme BT - comparing inter-departmental coordination of demographic change policies in five German states BT - Vergleich interministerieller Koordination der Demografiepolitik in fünf ostdeutschen Ländern N2 - The thesis focuses on the inter-departmental coordination of adaptation and mitigation of demographic change in East Germany. All Eastern German States (Länder) have set up inter-departmental committees (IDCs) that are expected to deliver joint strategies to tackle demographic change. IDCs provide an organizational setting for potential positive coordination, i.e. a joint approach to problem solving that pools and utilizes the expertise of many departments in a constructive manner from the very beginning. Whether they actually achieve positive coordination is contested within the academic debate. This motivates the first research question of this thesis: Do IDCs achieve positive coordination? Interdepartmental committees and their role in horizontal coordination within the core executive triggered interest among scholars already more than fifty years ago. However, we don’t know much about their actual importance for the inter-departmental preparation of cross-cutting policies. Until now, few studies can be found that analyzes inter-departmental committees in a comparative way trying to identify whether they achieve positive coordination and what factors shape the coordination process and output of IDCs. Each IDC has a chair organization that is responsible for managing the interactions within the IDCs. The chair organization is important, because it organizes and structures the overall process of coordination in the IDC. Consequently, the chair of an IDC serves as the main boundary-spanner and therefore has remarkable influence by arranging meetings and the work schedule or by distributing internal roles. Interestingly, in the German context we find two organizational approaches: while some states decided to put a line department (e.g. Department of Infrastructure) in charge of managing the IDC, others rely on the State Chancelleries, i.e. the center of government. This situation allows for comparative research design that can address the role of the State Chancellery in inter-departmental coordination of cross-cutting policies. This is relevant, because the role of the center is crucial when studying coordination within central government. The academic debate on the center of government in the German politico-administrative system is essentially divided into two camps. One camp claims that the center can improve horizontal coordination and steer cross-cutting policy-making more effectively, while the other camp points to limits to central coordination due to departmental autonomy. This debate motivates the second research question of this thesis: Does the State Chancellery as chair organization achieve positive coordination in IDCs? The center of government and its role in the German politic-administrative system has attracted academic attention already in the 1960s and 1970s. There is a research desiderate regarding the center’s role during the inter-departmental coordination process. There are only few studies that explicitly analyze centers of government and their role in coordination of cross-cutting policies, although some single case studies have been published. This gap in the academic debate will be addressed by the answer to the second research question. The dependent variable of this study is the chair organization of IDCs. The value of this variable is dichotomous: either an IDC is chaired by a Line department or by a State Chancellery. We are interested whether this variable has an effect on two dependent variables. First, we will analyze the coordination process, i.e. interaction among bureaucrats within the IDC. Second, the focus of this thesis will be on the coordination result, i.e. the demography strategies that are produced by the respective IDCs. In terms of the methodological approach, this thesis applies a comparative case study design based on a most-similar-systems logic. The German Federalism is quite suitable for such designs. Since the institutional framework largely is the same across all states, individual variables and their effect can be isolated and plausibly analyzed. To further control for potential intervening variables, we will limit our case selection to states located in East Germany, because the demographic situation is most problematic in the Eastern part of Germany, i.e. there is a equal problem pressure. Consequently, we will analyze five cases: Thuringia, Saxony-Anhalt (line department) and Brandenburg, Mecklenburg-Vorpommern and Saxony (State Chancellery). There is no grand coordination theory that is ready to be applied to our case studies. Therefore, we need to tailor our own approach. Our assumption is that the individual chair organization has an effect on the coordination process and output of IDCs, although all cases are embedded in the same institutional setting, i.e. the German politico-administrative system. Therefore, we need an analytical approach than incorporates institutionalist and agency-based arguments. Therefore, this thesis will utilize Actor-Centered Institutionalism (ACI). Broadly speaking, ACI conceptualizes actors’ behavior as influenced - but not fully determined - by institutions. Since ACI is rather abstract we need to adapt it for the purpose of this thesis. Line Departments and State Chancelleries will be modeled as distinct actors with different action orientations and capabilities to steer the coordination process. However, their action is embedded within the institutional context of governments, which we will conceptualize as being comprised of regulative (formal rules) and normative (social norms) elements. N2 - Die vorliegende Arbeit beschäftigt sich mit interministerieller Koordination der Demografiepolitik in ostdeutschen Ländern. Alle ostdeutschen Länder haben interministerielle Arbeitsgruppen (IMAGs) eingerichtet, die von der jeweiligen Landesregierung beauftragt wurden, ressortübergreifende Strategien zur Bewältigung der Folgen des demografischen Wandels zu erarbeiten. IMAGs bieten potentiell einen organisatorischen Rahmen für das Gelingen positiver Koordination, also der ressortübergreifenden Bearbeitung interdependenter Problemstellungen. Ob sie jedoch tatsächlich positive Koordination herbeiführen, ist innerhalb der akademischen Debatte umstritten, was die Motivation für die erste Forschungsfrage darstellt: Führen IMAGs zu positiver Koordination? IMAGs haben bereits vor fünfzig Jahren akademische Aufmerksamkeit erregt. Dennoch ist über ihren Beitrag zur Vorbereitung ressortübergreifender Programme kaum etwas bekannt. Bislang haben nur wenige Arbeiten IMAGs in vergleichender Perspektive behandelt. Somit fehlt es an Wissen zu Determinanten des Koordinationsprozesses und –ergebnisses interministerieller Arbeitsgruppen. Jeweils einer Organisation obliegt die Federführung für die jeweilige IMAG. Die federführende Einheit kann erheblichen Einfluss ausüben, da sie den Koordinationsprozess strukturiert und organisiert. Interessanterweise haben die ostdeutschen Bundesländer zwei unterschiedliche organisatorische Modelle gewählt: Entweder obliegt die Federführung der entsprechenden IMAG einem Fachministerien oder der Staatskanzlei des entsprechenden Landes. Diese Situation erlaubt ein vergleichendes Untersuchungsdesign, das die Rolle von Staatskanzleien im Prozess ressortübergreifender Politikformulierung im politisch-administrativen System Deutschlands zu untersuchen erlaubt. Die akademische Debatte im Hinblick darauf lässt sich etwas zugespitzt in zwei Lager teilen: Während das erste Lager argumentiert, die Regierungszentrale könne horizontale Koordination verbessern und zur effektiveren Steuerung ressortübergreifenden Politikformulierung beitragen, rekurriert das zweite Lager auf die Dominanz des verfassungsrechtlichen Ressortprinzip und geht von einer klaren Begrenzung der Steuerungskapazität von Regierungszentralen aus. Dies motiviert die zweite Forschungsfrage der vorliegenden Arbeit: Erreicht Federführung durch Staatskanzleien positive Koordination in IMAGs? Obwohl die Regierungszentrale schon frühzeitig Gegenstand verwaltungs- und politikwissenschaftlicher Forschung war, finden sich kaum Arbeiten, die explizit die Rolle von Staatskanzlei im Prozess der Formulierung ressortübergreifender Programme thematisieren. Die unabhängige Variable dieser Untersuchung ist die federführende Organisation einer IMAG (Staatskanzlei oder Fachministerium). Die abhängigen Variablen sind einerseits der Koordinationsprozess innerhalb von IMAGs als auch das entsprechende Koordinationsergebnis in Form ressortübergreifender Strategien zur Bewältigung des demografischen Wandels. Das Untersuchungsdesign entspricht einem most-similar-systems Ansatz. So finden sich in allen untersuchten Fällen Koalitionsregierungen, ein ähnlicher Problemdruck in Hinblick auf demografische Entwicklungen sowie ein nahezu identischer institutionelle Rahmen für Koordination. Der Einfluss der unabhängigen auf die abhängigen Variablen kann damit plausiblen isoliert werden. Die Studie untersucht IMAGs in den Ländern Thüringen, Sachsen-Anhalt (Federführung bei einem Fachministerium), Brandenburg, Mecklenburg-Vorpommern und Sachsen (Federführung bei der Staatskanzlei). Die Arbeit nutzt den akteurszentrierten Institutionalismus als analytischen Rahmen. Dieser erlaubt Koordinationsprozesse sowohl in Hinblick auf ihre institutionelle Einbettung zu untersuchen, die Rolle intentional handelnder Akteure mit unterschiedlichen Handlungsorientierungen und -möglichkeiten aus dem Blick zu verlieren. KW - coordination KW - wicked problems KW - demographic change KW - interdepartmental committee KW - Germany KW - Koordination KW - vertrackte Probleme KW - demografischer Wandel KW - interministerielle Arbeitsgruppe KW - Deutschland Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-396766 ER - TY - THES A1 - de Souza Silveira, Raul T1 - Human substrate metabolism at upper oxidative capacities T1 - Substrat-Metabolismus bei oberen oxidativen Kapazitäten BT - how intensity and pre-exercise nutrition affect the oxidative regulation of carbohydrate and fat during metabolic targeted running BT - wie Intensität und Ernährung vor dem Sport die oxidative Regulierung von Kohlenhydraten und Fett auf metabolisch gezielte Laufeinheiten wirken N2 - Introduction: Carbohydrate (CHO) and fat are the main substrates to fuel prolonged endurance exercise, each having its oxidation patterns regulated by several factors such as intensity, duration and mode of the activity, dietary intake pattern, muscle glycogen concentrations, gender and training status. Exercising at intensities where fat oxidation rates are high has been shown to induce metabolic benefits in recreational and health-oriented sportsmen. The exercise intensity (Fatpeak) eliciting peak fat oxidation rates is therefore of particular interest when aiming to prescribe exercise for the purpose of fat oxidation and related metabolic effects. Although running and walking are feasible and popular among the target population, no reliable protocols are available to assess Fatpeak as well as its actual velocity (VPFO) during treadmill ergometry. Moreover, to date, it remains unclear how pre-exercise CHO availability modulates the oxidative regulation of substrates when exercise is conducted at the intensity where the individual anaerobic threshold (IAT) is located (VIAT). That is, a metabolic marker representing the upper border where constant load endurance exercise can be sustained, being commonly used to guide athletic training or in performance diagnostics. The research objectives of the current thesis were therefore, 1) to assess the reliability and day-to-day variability of VPFO and Fatpeak during treadmill ergometry running; 2) to assess the impact of high CHO (HC) vs. low CHO (LC) diets (where on the LC day a combination of low CHO diet and a glycogen depleting exercise was implemented) on the oxidative regulation of CHOs and fat while exercise is conducted at VIAT. Methods: Research objective 1: Sixteen recreational athletes (f=7, m=9; 25 ± 3 y; 1.76 ± 0.09 m; 68.3 ± 13.7 kg; 23.1 ± 2.9 kg/m²) performed 2 different running protocols on 3 different days with standardized nutrition the day before testing. At day 1, peak oxygen uptake (VO2peak) and the velocities at the aerobic threshold (VLT) and respiratory exchange ratio (RER) of 1.00 (VRER) were assessed. At days 2 and 3, subjects ran an identical submaximal incremental test (Fat-peak test) composed of a 10 min warm-up (70% VLT) followed by 5 stages of 6 min with equal increments (stage 1 = VLT, stage 5 = VRER). Breath-by-breath gas exchange data was measured continuously and used to determine fat oxidation rates. A third order polynomial function was used to identify VPFO and subsequently Fatpeak. The reproducibility and variability of variables was verified with an intraclass correlation coefficient (ICC), Pearson’s correlation coefficient, coefficient of variation (CV) and the mean differences (bias) ± 95% limits of agreement (LoA). Research objective 2: Sixteen recreational runners (m=8, f=8; 28 ± 3 y; 1.76 ± 0.09 m; 72 ± 13 kg; 23 ± 2 kg/m²) performed 3 different running protocols, each allocated on a different day. At day 1, a maximal stepwise incremental test was implemented to assess the IAT and VIAT. During days 2 and 3, participants ran a constant-pace bout (30 min) at VIAT that was combined with randomly assigned HC (7g/kg/d) or LC (3g/kg/d) diets for the 24 h before testing. Breath-by-breath gas exchange data was measured continuously and used to determine substrate oxidation. Dietary data and differences in substrate oxidation were analyzed with a paired t-test. A two-way ANOVA tested the diet X gender interaction (α = 0.05). Results: Research objective 1: ICC, Pearson’s correlation and CV for VPFO and Fatpeak were 0.98, 0.97, 5.0%; and 0.90, 0.81, 7.0%, respectively. Bias ± 95% LoA was -0.3 ± 0.9 km/h for VPFO and -2 ± 8% of VO2peak for Fatpeak. Research objective 2: Overall, the IAT and VIAT were 2.74 ± 0.39 mmol/l and 11.1 ± 1.4 km/h, respectively. CHO oxidation was 3.45 ± 0.08 and 2.90 ± 0.07 g/min during HC and LC bouts respectively (P < 0.05). Likewise, fat oxidation was 0.13 ± 0.03 and 0.36 ± 0.03 g/min (P < 0.05). Females had 14% (P < 0.05) and 12% (P > 0.05) greater fat oxidation compared to males during HC and LC bouts, respectively. Conclusions: Research objective 1: In summary, relative and absolute reliability indicators for VPFO and Fatpeak were found to be excellent. The observed LoA may now serve as a basis for future training prescriptions, although fat oxidation rates at prolonged exercise bouts at this intensity still need to be investigated. Research objective 2: Twenty-four hours of high CHO consumption results in concurrent higher CHO oxidation rates and overall utilization, whereas maintaining a low systemic CHO availability significantly increases the contribution of fat to the overall energy metabolism. The observed gender differences underline the necessity of individualized dietary planning before exerting at intensities associated with performance exercise. Ultimately, future research should establish how these findings can be extrapolated to training and competitive situations and with that provide trainers and nutritionists with improved data to derive training prescriptions. N2 - Einleitung: Kohlenhydrate (CHO) und Fett sind die bedeutendsten Energieträger bei anhaltender Ausdauerbelastung. Diese Substrate haben individuelle Oxidationsmuster, die von Intensität, Dauer und Art der Aktivität, sowie Nahrungszufuhr, Muskelglykogen-konzentration, Geschlecht und Trainingsstatus abhängen. Es ist bekannt, dass körperliche Aktivität unter hohen Fettverbrennungsraten, vorteilhafte metabolische Effekte bei freizeitaktiven und gesundheitsorientierten Sportlern hervorrufen. Die durch Belastungsintensität (Fatpeak) hervorgerufene höchste Fettoxidationsrate ist daher von besonderer Bedeutung für Empfehlungen von Fettverbrennungsaktivitäten und hierzu gehörigen metabolischen Effekten. Obgleich Joggen und Laufen als praktikabel und verbreitet in entsprechenden Zielgruppen angesehen wird, existieren keine reliablen Protokolle um Fatpeak und die hierzu spezifische Geschwindigkeit (VPFO) bei einer Laufbandergometrie zu bestimmen. Darüberhinaus, ist bis heute ungeklärt, inwiefern die Verfügbarkeit von CHO vor körperlicher Belastung, die oxidative Regulation von Substraten beeinflusst, wenn die Belastungsintensität bei der individuelle anaeroben Schwelle (IAT) durchgeführt wird (VIAT). Die IAT beschreibt hierbei einen metabolischen Schwellenwert, bis zu welchem eine konstante Ausdauerleistung aufrecht erhalten werden kann. Dieser Schwellenwert wird üblicherweise zur Trainingssteuerung oder Leistungsdiagnostik herangezogen. Die Forschungsziele der hier vorgelegten Thesis sind daher: 1) Die Überprüfung der Reliabilität und Variabilität von VPFO und Fatpeak während einer Laufbandergometrie; 2) Die Überprüfung des Einflusses von kohlenhydratreicher (HC) im Vergleich zu kohlenhydratarmer (LC) Nahrungszufuhr auf die Regulierung der Oxidation von Kohlenhydraten und Fetten während körperlicher Aktivität bei VIAT. Hierbei wurde am LC Tag eine Kombination von geringer CHO Zufuhr und einer Glykogen verarmenden Belastung implementiert. Methoden: Forschungsziel 1: Sechszehn Freizeitsportler (f=7, m=9; 25 ± 3 y; 1.76 ± 0.09 m; 68.3 ± 13.7 kg; 23.1 ± 2.9 kg/m²) durchliefen 2 verschiedene Laufprotokolle an drei verschiedenen Tagen unter standardisierter Nahrungszufuhr vor den Untersuchungen. Am Tag 1 wurden die höchste Sauerstoffaufnahme (VO2peak) und die Geschwindigkeiten bei der aeroben Schwelle (VLT), sowie beim respiratorische Quotient (RER) von 1.00 (VRER) erfasst. Am Tag 2 und 3 absolvierten die Probanden einen identischen submaximalen Stufentest (Fat-peak test), welcher aus einer 10 min Erwärmungsphase (70% VLT) gefolgt von 5 gleichmäßig ansteigenden Stufen à 6 min (Stufe 1 = VLT, Stufe 5 = VRER) bestand. Atemgasdaten wurden durch „Breath-by-breath“-Analyse kontinuierlich gemessen und herangezogen um Fettoxidationsraten zu bestimmen. Aus diesen Daten wurde über eine Polynomfunktion dritter Ordnung VPFO und folglich Fatpeak identifiziert. Die Reproduzierbarkeit und Variabilität dieser Parameter wurde mittels des Intraklassen-Korrelationskoeffizient (ICC), des Pearson’s Korrelationskoeffizient, des Variabilitätskoeffizient (CV) und der mittleren Differenz (bias) ± 95% „limits of agreement“ (LoA) überprüft. Forschungsziel 2: Sechzehn Freizeitläufer (m=8, f=8; 28 ± 3 y; 1.76 ± 0.09 m; 72 ± 13 kg; 23 ± 2 kg/m²) durchliefen 3 verschiedene Laufprotokolle an jeweils unterschiedlichen Tagen. Am Tag 1 wurde ein maximaler Stufentest durchgeführt, um die IAT und VIAT zu erfassen. Am zweiten und dritten Tag absolvierten die Probanden eine Laufeinheit (30 min) in konstanter Geschwindigkeit bei VIAT, unter Berücksichtigung einer 24 h zuvor durchgeführten und zufällig zugewiesenen Diät mit entweder HC (7g/kg/d) oder LC (3g/kg/d). „Breath-by-breath“-Atemgasdaten wurden kontinuierlich erfasst und für die Bestimmung der Substratoxidation herangezogen. Ernährungsdaten und Unterschiede in Substratoxidation wurden mittels t-test für abhängige Probanden analysiert. Interaktionseffekte zwischen Diät und Geschlecht wurden mittels einer Zwei-Wege ANOVA getestet (α = 0.05). Ergebnisse: Forschungsziel 1: ICC, Pearson’s Korrelationskoeffizient und CV von VPFO und Fatpeak waren 0.98, 0.97, 5.0%; und respektive 0.90, 0.81, 7.0%. Bias ± 95% LoA betrug -0.3 ± 0.9 km/h für VPFO und -2 ± 8% von VO2peak für Fatpeak. Forschungsziel 2: Insgesamt waren IAT 2.74 ± 0.39 mmol/l und VIAT 11.1 ± 1.4 km/h. CHO Oxidation war 3.45 ± 0.08 g/min während HC und respektive 2.90 ± 0.07 g/min während LC Laufeinheiten (P < 0.05). Gleichermaßen war Fettoxidation 0.13 ± 0.03 und 0.36 ± 0.03 g/min (P < 0.05). Frauen hatten im Vergleich zu Männern 14% (P < 0.05) und 12% (P > 0.05) größere Fettoxidation in HC und respektive LC Laufeinheiten. Schlussfolgerungen: Forschungsziel 1: Zusammenfassend wurde eine exzellente relative und absolute Reliabilität für VPFO und Fatpeak gezeigt. Die gefundenen LoA könnten als Basis für zukünftige Trainingssteuerungsempfehlungen genutzt werden, obwohl Fettoxidationsraten bei anhaltenden Ausdauertrainingseinheiten bei dieser Intensität noch untersucht werden müssen. Forschungsziel 2: Hohe CHO-Zufuhr 24 h vor Belastung führt zu einhergehenden höheren CHO-Oxidationsraten und -verwertung, wobei eine niedrige systemische CHO-Verfügbarkeit den Anteil an Fettoxidation im gesamten Energiemetabolismus signifikant erhöht. Die beobachteten Geschlechtsunterschiede unterstreichen die Notwendigkeit einer individualisierten Ernährungsplanung im Vorfeld einer Belastung unter leistungsorientierten Intensitäten. Schlussendlich sollte zukünftige Forschung feststellen, wie hiesige Ergebnisse in Training und Wettkampfsituationen umgesetzt werden können, um somit Trainern und Ernährungswissenschaftlern verbesserte Daten für Trainingsempfehlungen bereitzustellen. KW - fat oxidation KW - carbohydrate oxidation KW - individual anaerobic threshold KW - Fettoxidation KW - Kohlenhydratoxidation KW - individuelle anaerobe Schwelle Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-423338 ER - TY - THES A1 - Dippel, Sandor T1 - Development of functional hydrogels for sensor applications T1 - Entwicklung funktionalisierter Hydrogele für Sensor Anwendungen N2 - In this work, a sensor system based on thermoresponsive materials is developed by utilizing a modular approach. By synthesizing three different key monomers containing either a carboxyl, alkene or alkyne end group connected with a spacer to the methacrylic polymerizable unit, a flexible copolymerization strategy has been set up with oligo ethylene glycol methacrylates. This allows to tune the lower critical solution temperature (LCST) of the polymers in aqueous media. The molar masses are variable thanks to the excurse taken in polymerization in ionic liquids thus stretching molar masses from 25 to over 1000 kDa. The systems that were shown shown to be effective in aqueous solution could be immobilized on surfaces by copolymerizing photo crosslinkable units. The immobilized systems were formulated to give different layer thicknesses, swelling ratios and mesh sizes depending on the demand of the coupling reaction. The coupling of detector units or model molecules is approached via reactions of the click chemistry pool, and the reactions are evaluated on their efficiency under those aspects, too. These coupling reactions are followed by surface plasmon resonance spectroscopy (SPR) to judge efficiency. With these tools at hand, Salmonella saccharides could be selectively detected by SPR. Influenza viruses were detected in solution by turbidimetry in solution as well as by a copolymerized solvatochromic dye to track binding via the changes of the polymers’ fluorescence by said binding event. This effect could also be achieved by utilizing the thermoresponsive behavior. Another demonstrator consists of the detection system bound to a quartz surface, thus allowing the virus detection on a solid carrier. The experiments show the great potential of combining the concepts of thermoresponsive materials and click chemistry to develop technically simple sensors for large biomolecules and viruses. N2 - Diese Arbeit befasst sich mit der Entwicklung von Sensorsystemen für biologische Analyten wie Bakterien und Viren. Die Sensoren beruhen auf thermoresponsiven Polymeren und die Entwicklung wird Schritt für Schritt ausgehend von der Monomersynthese dargelegt. Die Grundidee ist es alle Einzelschritte so modular wie möglich zu halten. Die Kopplungseinheiten für die späteren Erkennungsgruppen bestehen aus Carboxyl, Alken und Alkinfunktionalitäten, die zuerst mit einem Ethylenglycolspacer mit variabler Länge verknüpft werden und dann mit der polymerisierbaren Methylmethacrylatgruppe versehen werden. Diese koppelbaren Monomere werden mit Di- oder (Oligoethylenglycol)methacrylaten copolymerisiert. Je nach Verhältnis ist so auch die untere kritische Entmischungstemperatur (LCST) einstellbar. Mit der Erweiterung der Polymerisationstechnik um ionische Flüssigkeiten als Lösemittel lassen sich Molmassen von 25 bis über 1000 kDa einstellen. Um die Polymere funktionell zu erweitern, lassen sich auch benzophenonhaltige Monomere zur Vernetzung oder Immobilisierung copolymerisieren. Naphthalsäureimidhaltige Monomere wiederum dienen als Signaleinheit, da sie durch Verändern der Polarität ihrer Umgebung solvatochrom reagieren. Durch Aufschleudern und UV-Vernetzen lassen sich Gelschichten mit guter Schichtdickenkontrolle herstellen. Dabei sind die Substrate nur auf den jeweiligen Zweck beschränkt. Dank des Baukastenprinzips kann auch die Maschenweite oder der Quellgrad der Gele eingestellt werden. Die Polymere oder Hydrogele werden mit Hilfe von effizienten Reaktionen swe sogenannten „Click Chemie“ umgesetzt und die Reaktionen werden durchleuchtet, ob sie diesen Ansprüchen gerecht werden. Je nach Möglichkeit wird das Anknüpfen mittels Oberflächenplasmonenresonanzspektroskopie(SPR) verfolgt, so wie zum Beispiel die Kopplung eines Phagen-Oberflächenproteins und das selektive Binden eines Membransaccharids des Salmonellen Bakteriums. Influenza Viren werden selektiv mit Hilfe eines Erkennungspeptids gebunden und mit Hilfe von Trübungsspektroskopie bzw. dem thermoresponsiven Verhalten des Trägerpolymers nachgewiesen. Ein weiterer dargelegter Ansatz ist das Nachweisen von geringen Virenkonzentrationen mit Hilfe eines Hydrogels oder von Polymeren in Lösung, die jeweils mit einem solvatochromen Farbstoff ausgestattet sind, der auf die Umgebungsänderung durch den Virus reagiert. Die Experimente zeigen das große Potential von geschickt kombinierten thermoresponsiven Materialien, die mittels Funktionalisierung durch Click-Chemie zu technisch einfachen Nachweissystemen für Biomoleküle und sogar ganze Zellen entwickelt werden können. KW - biosensors KW - polymer synthesis KW - lower critical solution temperature KW - surface modification KW - smart materials KW - Biosensoren KW - Polymersynthese KW - untere kritische Entmischungstemperatur KW - schaltbare Materialien Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398252 ER - TY - THES A1 - Doriti, Afroditi T1 - Sustainable bio-based poly-N-glycines and polyesters T1 - Nachhaltige biobasierte Poly-N-Glycine und Polyester N2 - Nowadays, the need to protect the environment becomes more urgent than ever. In the field of chemistry, this translates to practices such as waste prevention, use of renewable feedstocks, and catalysis; concepts based on the principles of green chemistry. Polymers are an important product in the chemical industry and are also in the focus of these changes. In this thesis, more sustainable approaches to make two classes of polymers, polypeptoids and polyesters, are described. Polypeptoids or poly(alkyl-N-glycines) are isomers of polypeptides and are biocompatible, as well as degradable under biologically relevant conditions. In addition to that, they can have interesting properties such as lower critical solution temperature (LCST) behavior. They are usually synthesized by the ring opening polymerization (ROP) of N-carboxy anhydrides (NCAs), which are produced with the use of toxic compounds (e.g. phosgene) and which are highly sensitive to humidity. In order to avoid the direct synthesis and isolation of the NCAs, N-phenoxycarbonyl-protected N-substituted glycines are prepared, which can yield the NCAs in situ. The conditions for the NCA synthesis and its direct polymerization are investigated and optimized for the simplest N-substituted glycine, sarcosine. The use of a tertiary amine in less than stoichiometric amounts compared to the N-phenoxycarbonyl--sarcosine seems to accelerate drastically the NCA formation and does not affect the efficiency of the polymerization. In fact, well defined polysarcosines that comply to the monomer to initiator ratio can be produced by this method. This approach was also applied to other N-substituted glycines. Dihydroxyacetone is a sustainable diol produced from glycerol, and has already been used for the synthesis of polycarbonates. Here, it was used as a comonomer for the synthesis of polyesters. However, the polymerization of dihydroxyacetone presented difficulties, probably due to the insolubility of the macromolecular chains. To circumvent the problem, the dimethyl acetal protected dihydroxyacetone was polymerized with terephthaloyl chloride to yield a soluble polymer. When the carbonyl was recovered after deprotection, the product was insoluble in all solvents, showing that the carbonyl in the main chain hinders the dissolution of the polymers. The solubility issue can be avoided, when a 1:1 mixture of dihydroxyacetone/ ethylene glycol is used to yield a soluble copolyester. N2 - Heutzutage wird die Notwendigkeit, die Umwelt zu schützen, dringender denn je. Auf dem Gebiet der Chemie bedeutet dies Praktiken wie Abfallvermeidung, Verwendung nachwachsender Rohstoffe und Katalyse, Konzepte, die auf den Prinzipien der grünen Chemie basierend sind. Polymere sind ein wichtiges Produkt in der chemischen Industrie und stehen auch im Fokus dieser Veränderungen. In dieser Arbeit werden nachhaltigere Ansätze zur Herstellung von zwei Klassen von Polymeren, Polypeptoiden und Polyestern beschrieben. Polypeptoide oder Poly (alkyl-N-glycine) sind Isomere von Polypeptiden und sind biokompatibel sowie unter biologisch relevanten Bedingungen abbaubar. Darüber hinaus können sie interessante Eigenschaften wie das LCST-Verhalten (Lower Critical Solution Temperature) aufweisen. Sie werden üblicherweise durch die Ringöffnungspolymerisation (ROP) von N-Carboxyanhydriden (NCAs) synthetisiert, die unter Verwendung von toxischen Verbindungen (z. B. Phosgen) hergestellt werden und die gegenüber Feuchtigkeit sehr empfindlich sind. Um die direkte Synthese und Isolierung der NCAs zu vermeiden, werden N-Phenoxycarbonyl-geschützte N-substituierte Glycine hergestellt, die die NCAs in situ liefern können. Die Bedingungen für die NCA-Synthese und ihre direkte Polymerisation wurden für das einfachste N-substituierte Glycin, Sarcosin, untersucht und optimiert. Die Verwendung eines tertiären Amins in weniger als stöchiometrischen Mengen im Vergleich zum N-Phenoxycarbonyl-Sarkosin scheint die NCA-Bildung drastisch zu beschleunigen und beeinflusst die Effizienz der Polymerisation nicht. In der Tat können mit diesem Verfahren gut definierte Polysarkosine hergestellt werden, die dem Verhältnis von Monomer zu Initiator entsprechen. Dieser Ansatz wurde auch auf andere N-substituierte Glycine angewendet. Dihydroxyaceton ist ein aus Glycerin hergestelltes, nachhaltiges Diol, das bereits für die Synthese von Polycarbonaten verwendet wurde. Hier wurde es als Comonomer für die Synthese von Polyestern verwendet. Die Polymerisation von Dihydroxyaceton zeigte jedoch Schwierigkeiten, wahrscheinlich aufgrund der Unlöslichkeit der makromolekularen Ketten. Um das Problem zu umgehen, wurde das Dimethylacetal-geschützte Dihydroxyaceton mit Terephthaloylchlorid polymerisiert, um ein lösliches Polymer zu ergeben. Wenn das Carbonyl nach der Entschützung zurückgewonnen wurde, war das Produkt in allen Lösungsmitteln unlöslich, was zeigt, dass das Carbonyl in der Hauptkette das Lösen der Polymere behindert. Das Löslichkeitsproblem kann vermieden werden, wenn eine 1: 1-Mischung von Dihydroxyaceton / Ethylenglycol verwendet wird, um einen löslichen Copolyester zu ergeben. KW - ROP KW - N-alkyl-glycine KW - polypeptoids KW - activated urethane KW - dihydroxyacetone KW - polycondensation KW - polyesters KW - Ringöffnungspolymerisation KW - N-Alkylglycin KW - Polypeptoide KW - aktiviertes Urethan KW - Dihydroxyaceton KW - Polykondensation KW - Polyester Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-411286 ER - TY - THES A1 - Dribbisch, Katrin T1 - Translating innovation T1 - Translating Innovation BT - the adoption of Design Thinking in a Singaporean ministry BT - die Adoption von Design Thinking in einem Singapurer Ministerium N2 - This doctoral thesis studies the process of innovation adoption in public administrations, addressing the research question of how an innovation is translated to a local context. The study empirically explores Design Thinking as a new problem-solving approach introduced by a federal government organisation in Singapore. With a focus on user-centeredness, collaboration and iteration Design Thinking seems to offer a new way to engage recipients and other stakeholders of public services as well as to re-think the policy design process from a user’s point of view. Pioneered in the private sector, early adopters of the methodology include civil services in Australia, Denmark, the United Kingdom, the United States as well as Singapore. Hitherto, there is not much evidence on how and for which purposes Design Thinking is used in the public sector. For the purpose of this study, innovation adoption is framed in an institutionalist perspective addressing how concepts are translated to local contexts. The study rejects simplistic views of the innovation adoption process, in which an idea diffuses to another setting without adaptation. The translation perspective is fruitful because it captures the multidimensionality and ‘messiness’ of innovation adoption. More specifically, the overall research question addressed in this study is: How has Design Thinking been translated to the local context of the public sector organisation under investigation? And from a theoretical point of view: What can we learn from translation theory about innovation adoption processes? Moreover, there are only few empirical studies of organisations adopting Design Thinking and most of them focus on private organisations. We know very little about how Design Thinking is embedded in public sector organisations. This study therefore provides further empirical evidence of how Design Thinking is used in a public sector organisation, especially with regards to its application to policy work which has so far been under-researched. An exploratory single case study approach was chosen to provide an in-depth analysis of the innovation adoption process. Based on a purposive, theory-driven sampling approach, a Singaporean Ministry was selected because it represented an organisational setting in which Design Thinking had been embedded for several years, making it a relevant case with regard to the research question. Following a qualitative research design, 28 semi-structured interviews (45-100 minutes) with employees and managers were conducted. The interview data was triangulated with observations and documents, collected during a field research research stay in Singapore. The empirical study of innovation adoption in a single organisation focused on the intra-organisational perspective, with the aim to capture the variations of translation that occur during the adoption process. In so doing, this study opened the black box often assumed in implementation studies. Second, this research advances translation studies not only by showing variance, but also by deriving explanatory factors. The main differences in the translation of Design Thinking occurred between service delivery and policy divisions, as well as between the first adopter and the rest of the organisation. For the intra-organisational translation of Design Thinking in the Singaporean Ministry the following five factors played a role: task type, mode of adoption, type of expertise, sequence of adoption, and the adoption of similar practices. N2 - Die Dissertation untersucht den Prozess der Innovationsadoption in Verwaltungen, ausgehend von der Forschungsfrage, wie eine Innovation in den lokalen Kontext einer Organisation übersetzt wird. Empirisch untersucht die Arbeit, wie Design Thinking als neuer Problemlösungsansatz von einem Singapurer Ministerium eingeführt wurde. Mit einer am Nutzer orientierten, kollaborativen und iterativen Arbeitsweise verspricht Design Thinking eine neue Möglichkeit, Leistungsempfänger/innen und andere Stakeholder öffentlicher Dienstleistungen einzubinden sowie den Gesetzgebungsprozess ausgehend von der Nutzerperspektive neu zu gestalten. Dieser zunächst in Unternehmen eingeführte Innovationsansatz wurde in den vergangenen Jahren verstärkt von Verwaltungen weltweit aufgegriffen, zum Beispiel in Australien, Dänemark, Großbritannien, den USA und Singapur. Es existieren jedoch bisher nur wenige empirische Studien darüber, wie und für welche Zwecke Design Thinking im Verwaltungskontext zum Einsatz kommt. Die vorliegende Arbeit wählt eine Translationsperspektive zur Analyse des Innovation-Adoption-Prozesses. Der Translationsansatz im Sinne des skandinavischen Neo-Institutionalismus untersucht, wie Ideen in lokale Kontexte übersetzt werden. Die Studie grenzt sich damit von einem vereinfachten Verständnis des Innovation-Adoption-Prozesses ab und somit von der Vorstellung, dass eine Idee ohne Anpassung in einen neuen Kontext aufgenommen wird. Die Translationstheorie ermöglicht eine differenzierte Betrachtung des Innovation-Adoption-Prozesses, indem sie den Blick auf die Anpassungen und Veränderungen richtet. Die zentralen Forschungsfragen der Studie lauten: Erstens, wie wurde Design Thinking in den lokalen Kontext eines Singapurer Ministeriums übersetzt? Zweitens, was können wir von einem Translation-Theorieansatz über Innovation-Adoption-Prozesse lernen? Es gibt bisher wenige empirische Studien zur organisationalen Adoption von Design Thinking, von denen die meisten sich auf Unternehmen beziehen. Wir wissen wenig darüber, wie Design Thinking in öffentlichen Verwaltungen und Regierungsorganisationen eingebettet wird. Diese Untersuchung liefert deshalb empirische Evidenz, wie Design Thinking in einer öffentlichen Verwaltung eingesetzt wird, insbesondere in Bezug auf die Anwendung im Gesetzgebungsbereich, der in der bisherigen Forschung vernachlässigt wurde. Für die Analyse des Innovation-Adoption-Prozesses wurde ein exploratives Einzelfallstudiendesign gewählt. Basierend auf einem theoriegeleiteten Sampling-Ansatz wurde ein Singapurer Ministerium ausgewählt, das einen Organisationskontext bot, in dem Design Thinking vor einigen Jahren eingeführt und seitdem praktiziert wurde. Das Singapurer Ministerium stellt damit einen relevanten Fall für die Beantwortung der Forschungsfrage dar. Im Rahmen eines qualitativen Forschungsdesigns, wurden 28 semi-strukturierte Interviews (45 bis 100 Minuten) mit Mitarbeiter/innen und Führungskräften durchgeführt. Die Interviewdaten wurden mit Beobachtungen und Dokumenten trianguliert, die während eines mehrwöchigen Forschungsaufenthaltes in Singapur gesammelt wurden. Die empirische Untersuchung der Innovationsadoption in einer Einzelorganisation konzentriert sich auf eine intraorganisatorische Perspektive mit dem Ziel, die Variationen der Translation während des Adoptionsprozesses festzuhalten. Die Studie leistet damit einen Beitrag zur Öffnung der oft in Implementierungsstudien angenommenen Blackbox, weil sie den Blick darauf richtet, was nach der Einführungsentscheidung in der Organisation mit der Innovation geschieht. Zweitens, erweitert die vorliegende Studie die Translationsforschung, weil sie intraorganisatorische Varianz der Übersetzung nicht nur nachweisen, sondern auch erklären kann. Aus dem empirischen Material werden fünf Einflussfaktoren identifiziert, die die Unterschiede in der Übersetzung von Design Thinking innerhalb des Singapurer Ministeriums erklären können: 1) die Art der Aufgabe, 2) der Adoptionsmodus, 3) die Art der Expertise, 4) die zeitliche Abfolge der Adoption und 5) die Integration in die Organisation durch die Kombination mit komplementären Praktiken. Die Hauptunterschiede traten zwischen Service-Delivery- und Policy-Abteilungen auf sowie zwischen der der Abteilung, die Design Thinking zuerst einführte, und dem Rest der Organisation. KW - Design Thinking KW - innovation adoption KW - translation theory KW - public sector innovation KW - public management KW - Design Thinking KW - Innovation KW - Verwaltungsmodernisierung KW - Organizational innovation KW - Neo-institutionalismus Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-104719 ER - TY - THES A1 - Eichler, Sarah T1 - Multidisziplinäre kardiologische Rehabilitation bei Patienten nach kathetergestützter Aortenklappenkorrektur T1 - Multicomponent cardiac rehabilitation in patients after transcatheter aortic valve implantation BT - Prädiktoren für die Veränderung der körperlichen Leistungsfähigkeit und Lebensqualität BT - predictors of functional and psychocognitive recovery N2 - Hintergrund Für Patienten mit hochgradiger Aortenklappenstenose, die aufgrund ihres Alters oder ihrer Multimorbidität ein hohes Operationsrisiko tragen, konnte mit der kathetergestützten Aortenklappenkorrektur (transcatheter aortic valve implantation, TAVI) eine vielversprechende Alternative zum herzchirurgischen Eingriff etabliert werden. Explizite Daten zur multidisziplinären kardiologischen Rehabilitation nach TAVI liegen bislang nicht vor. Ziel vorliegender Arbeit war, den Effekt der kardiologischen Rehabilitation auf die körperliche Leistungsfähigkeit, den emotionalen Status, die Lebensqualität und die Gebrechlichkeit bei Patienten nach TAVI zu untersuchen sowie Prädiktoren für die Veränderung der körperlichen Leistungsfähigkeit und der Lebensqualität zu identifizieren. Methodik Zwischen 10/2013 und 07/2015 wurden 136 Patienten (80,6 ± 5,0 Jahre, 47,8 % Männer) in Anschlussheilbehandlung nach TAVI in drei kardiologischen Rehabilitationskliniken eingeschlossen. Zur Beurteilung des Effekts der kardiologischen Rehabilitation wurden jeweils zu Beginn und Ende der Rehabilitation der Frailty (Gebrechlichkeits)-Index (Score bestehend aus Barthel-Index, Instrumental Activities of Daily Living, Mini Mental State Exam, Mini Nutritional Assessment, Timed Up and Go und subjektiver Mobilitätsverschlechterung), die Lebensqualität im Short-Form 12 (SF-12) sowie die funktionale körperliche Leistungsfähigkeit im 6-Minuten Gehtest (6-minute walk test, 6MWT) und die maximale körperliche Leistungsfähigkeit in der Belastungs-Ergometrie erhoben. Zusätzlich wurden soziodemographische Daten (z. B. Alter und Geschlecht), Komorbiditäten (z. B. chronisch obstruktive Lungenerkrankung, koronare Herzkrankheit und Karzinom), kardiovaskuläre Risikofaktoren und die NYHA-Klasse dokumentiert. Prädiktoren für die Veränderung der körperlichen Leistungsfähigkeit und Lebensqualität wurden mit Kovarianzanalysen angepasst. Ergebnisse Die maximale Gehstrecke im 6MWT konnte um 56,3 ± 65,3 m (p < 0,001) und die maximale körperliche Leistungsfähigkeit in der Belastungs-Ergometrie um 8,0 ± 14,9 Watt (p < 0001) gesteigert werden. Weiterhin konnte eine Verbesserung im SF-12 sowohl in der körperlichen Summenskala um 2,5 ± 8,7 Punkte (p = 0,001) als auch in der psychischen Summenskala um 3,4 ± 10,2 Punkte (p = 0,003) erreicht werden. In der multivariaten Analyse waren ein höheres Alter und eine höhere Bildung signifikant mit einer geringeren Zunahme im 6MWT assoziiert, währenddessen eine bessere kognitive Leistungsfähigkeit und Adipositas einen positiven prädiktiven Wert aufwiesen. Eine höhere Selbstständigkeit und ein besserer Ernährungsstatus beeinflussten die Veränderung in der körperlichen Summenskala des SF-12 positiv, währenddessen eine bessere kognitive Leistungsfähigkeit einen Prädiktor für eine geringere Veränderung darstellte. Des Weiteren hatten die jeweiligen Ausgangswerte der körperlichen und psychischen Summenskala im SF-12 einen inversen Einfluss auf die Veränderungen in der gleichen Skala. Schlussfolgerung Eine multidisziplinäre kardiologische Rehabilitation kann sowohl die körperliche Leistungs-fähigkeit und Lebensqualität verbessern als auch die Gebrechlichkeit von Patienten nach kathetergestützter Aortenklappenkorrektur verringern. Daraus resultierend gilt es, spezifische Assessments für die kardiologische Rehabilitation zu entwickeln. Weiterhin ist es notwendig, individualisierte Therapieprogramme mit besonderem Augenmerk auf kognitive Funktionen und Ernährung zu initiieren, um die Selbstständigkeit hochbetagter Patienten zu erhalten bzw. wiederherzustellen und um die Pflegebedürftigkeit der Patienten hinauszuzögern. N2 - Background In the last decade, transcatheter aortic valve implantation (TAVI) has reached widespread clinical acceptance as treatment for elderly and high-risk patients with aortic stenosis. Little is known about influencing factors of function and quality of life during multicomponent cardi-ac rehabilitation. The aim of the underlying study was to investigate the impact of a multidis-ciplinary inpatient cardiac rehabilitation on function and frailty as well as to find predictors for changes in quality of life and physical capacity. Methods From 10/2013 to 07/2015, patients with an elective TAVI and a subsequent inpatient cardiac rehabilitation were enrolled in the prospective cohort multicentre study. A Frailty-Index (a score including Activities of Daily Living, Instrumental Activities of Daily Living, Mini Men-tal State Exam, Mini Nutritional Assessment, Timed Up and Go und subjective mobility disa-bility), quality of life by Short Form-12 (SF-12), function by 6-minute walk distance (6MWD) and by maximum work load in bicycle ergometry were performed at admission and discharge of cardiac rehabilitation. Additionally, sociodemographic parameters (e. g. age, sex), comorbidities (e. g. chronic obstructive pulmonary disease, coronary artery disease), cardiovascular risk factors and NYHA-class were documented. Predictors for changes in 6MWD and SF-12 were studied using analysis of covariance. Results 136 patients (80.6 ± 5.0 years, 47.8 % male) were enrolled. 6MWD and maximum work load increased by 56.3 ± 65.3 m (p < 0.001) and 8.0 ± 14.9 Watts (p < 0.001), respectively. An improvement in SF-12 (physical component scale 2.5 ± 8.7, p = 0.001, mental component scale 3.4 ± 10.2, p = 0.003) could be observed. In the multivariate analysis, age and a higher education were significantly associated with a reduced 6MWD, whereas cognition and obesity showed a positive predictive value. Nutrition and autonomy positively influenced the physical scale of SF-12, whereas a better cognitive performance negatively influenced it. Additionally, the baseline values of SF-12 had an inverse impact on the change during cardiac rehabilitation. Conclusions Cardiac rehabilitation can improve functional capacity as well as quality of life and reduce frailty in patients after TAVI. This results in a reevaluation of diagnostic modalities, prognostic parameters and an individualised definition of achievable goals in the contemporary TAVI population during the recovery phase at cardiac rehabilitation. An individually tailored therapy with special consideration of cognition and nutrition is needed to maintain autonomy and empower octogenarians in coping with challenges of everyday life. KW - TAVI KW - Gebrechlichkeit KW - kardiologische Rehabilitation KW - Lebensqualität KW - körperliche Leistungsfähigkeit KW - TAVI KW - frailty KW - cardiac rehabilitation KW - quality of life KW - exercise capacity Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-406618 ER - TY - THES A1 - Eisold, Ursula T1 - Cumarin- und DBD-Farbstoffe als Fluoreszenzsonden T1 - Coumarin and dbd dyes as fluorescent probes BT - Fluoreszenzimmunassays und Förster-Resonanz-Energietransfer BT - fluorescence immunoassays and Foerster resonance energy transfer N2 - In dieser Arbeit werden drei Themen im Zusammenhang mit den spektroskopischen Eigenschaften von Cumarin- (Cou) und DBD-Farbstoffen ([1,3]Dioxolo[4,5-f][1,3]benzodioxol) behandelt. Der erste Teil zeigt die grundlegende spektroskopische Charakterisierung von 7-Aminocumarinen und ihre potentielle Anwendung als Fluoreszenzsonde für Fluoreszenzimmunassays. Im zweiten Teil werden mit die photophysikalischen Eigenschaften der Cumarine genutzt um Cou- und DBD-funktionalisierte Oligo-Spiro-Ketal-Stäbe (OSTK) und ihre Eigenschaften als Membransonden zu untersuchen. Der letzte Teil beschäftigt sich mit der Synthese und der Charakterisierung von Cou- und DBD-funktionalisierten Polyprolinen als Referenzsysteme für schwefelfunktionalisierte OSTK-Stäbe und ihrer Kopplung an Goldnanopartikel. Immunochemische Analysemethoden sind in der klinischen Diagnostik sehr erfolgreich und werden heute auch für die Nahrungsmittelkontrolle und Überwachung von Umweltfragen mit einbezogen. Dadurch sind sie von großem Interesse für weitere Forschungen. Unter den verschiedenen Immunassays zeichnen sich lumineszenzbasierte Formate durch ihre herausragende Sensitivität aus, die dieses Format für zukünftige Anwendungen besonders attraktiv macht. Die Notwendigkeit von Multiparameterdetektionsmöglichkeiten erfordert einen Werkzeugkasten mit Farbstoffen, um die biochemische Reaktion in ein optisch detektierbares Signal umzuwandeln. Hier wird bei einem Multiparameteransatz jeder Analyt durch einen anderen Farbstoff mit einer einzigartigen Emissionsfarbe, die den blauen bis roten Spektralbereich abdecken, oder eine einzigartige Abklingzeit detektiert. Im Falle eines kompetitiven Immunassayformats wäre für jeden der verschiedenen Farbstoffe ein einzelner Antikörper erforderlich. In der vorliegenden Arbeit wird ein leicht modifizierter Ansatz unter Verwendung einer Cumarineinheit, gegen die hochspezifische monoklonale Antikörper (mAb) erzeugt wurden, als grundlegendes Antigen präsentiert. Durch eine Modifikation der Stammcumarineinheit an einer Position des Moleküls, die für die Erkennung durch den Antikörper nicht relevant ist, kann auf den vollen Spektralbereich von blau bis tiefrot zugegriffen werden. In dieser Arbeit wird die photophysikalische Charakterisierung der verschiedenen Cumarinderivate und ihrer entsprechenden Immunkomplexe mit zwei verschiedenen, aber dennoch hochspezifischen, Antikörpern präsentiert. Die Cumarinfarbstoffe und ihre Immunkomplexe wurden durch stationäre und zeitaufgelöste Absorptions- sowie Fluoreszenzemissionsspektroskopie charakterisiert. Darüber hinaus wurden Fluoreszenzdepolarisationsmessungen durchgeführt, um die Daten zu vervollständigen, die die verschiedenen Bindungsmodi der beiden Antikörper betonten. Im Gegensatz zu häufig eingesetzten Nachweissystemen wurde eine massive Fluoreszenzverstärkung bei der Bildung des Antikörper-Farbstoffkomplexes bis zu einem Faktor von 50 gefunden. Wegen der leichten Emissionsfarbenänderung durch das Anpassen der Cumarinsubstitution in der für die Antigenbindung nicht relevanten Position des Elternmoleküls, ist eine Farbstoff-Toolbox vorhanden, die bei der Konstruktion von kompetitiven Multiparameterfluoreszenzverstärkungsimmunassays verwendet werden kann. Oligo-Spiro-Thio-Ketal-Stäbe werden aufgrund ihres hydrophoben Rückgrats leicht in Doppellipidschichten eingebaut und deshalb als optische Membransonde verwendet. Wegen ihres geringen Durchmessers wird nur eine minimale Störung der Doppellipidschicht verursacht. Durch die Markierung mit Fluoreszenzfarbstoffen sind neuartige Förster-Resonanz-Energietransfersonden mit hoch definierten relativen Orientierungen der Übergangsdipolmomente der Donor- und Akzeptorfarbstoffe zugänglich und macht die Klasse der OSTK-Sonden zu einem leistungsstarken, flexiblen Werkzeugkasten für optische Biosensoranwendungen. Mit Hilfe von stationären und zeitaufgelösten Fluoreszenzexperimenten wurde der Einbau von Cumarin- und DBD markierten OSTK-Stäben in großen unilamellaren Vesikeln untersucht und die Ergebnisse durch Fluoreszenzdepolarisationsmessungen untermauert. Der letzte Teil dieser Arbeit beschäftigt sich mit der Synthese und Charakterisierung von Cou- und DBD-funktionalisierten Polyprolinen und ihrer Kopplung an Goldnanopartikel. Die farbstoffmarkierten Polyproline konnten erfolgreich hergestellt werden. Es zeigten sich deutlich Einflüsse auf die spektroskopischen Eigenschaften der Farbstoffe durch die Bindung an die Polyprolinhelix. Die Kopplung an die 5 nm großen AuNP konnte erfolgreich durchgeführt werden. Die Erfahrungen, die durch die Kopplung der Polyproline an die AuNP, gewonnen wurde, ist die Basis für eine Einzelmolekül-AFM-FRET-Nanoskopie mit OSTK-Stäben. N2 - In this thesis, three topics are discussed in connection with the spectroscopic properties of coumarin (Cou) and DBD ([1,3]dioxolo[4,5-f][1,3]benzodioxole) dyes. The first part shows the basic spectroscopic characterization of 7-aminocumarins and their advantage as a fluorescence probe for fluorescence immunoassays. In the second part, the photophysical properties of the coumarins are used to investigate Cou- and DBD-functionalized oligo-spiro-ketal rods (OSTK) and their properties as membrane probes. The last part deals with the synthesis and characterization of Cou- and DBD-functionalized polyprolines as reference systems for sulfur-functionalized OSTK rods and their coupling to gold nanoparticles. The fact that immunochemical analysis methods are very successful in clinical diagnostics and are now also included for food control and monitoring of environmental questions they are of great interest for further research. Among the various immunoassays, luminescence-based formats are distinguished by their outstanding sensitivity, which makes this format particularly attractive for future applications. The need for multiparameter detection capabilities requires a toolbox of dyes to convert the biochemical response to an optically detectable signal. Here, in the case of a multiparameter approach, each analyte is detected by another dye with a unique emission color which covers the blue to red spectral range or a unique decay time. In the case of a competitive immunoassay format, a single antibody would be required for each of the different dyes. In the present work, a slightly modified approach is presented as a basic antigen using a coumarin moiety against which highly specific antibodies have been produced. By modifying the parent coumarin moiety at a site of the molecule which is not relevant for recognition by the antibody, the full spectral range from blue to deep red can be accessed. This work presents the photophysical characterization of the different cumarine derivatives and their corresponding immuno complexes with two different but nevertheless highly specific monoclonal antibodies (mAb). The coumarin dyes and their immunocomplexes were characterized by steady-state time-resolved absorption and fluorescence emission spectroscopy. In addition, fluorescence depolarization measurements were performed to complete the data emphasizing the different binding modes of the two antibodies. In contrast to frequently used detection systems, a massive fluorescence enhancement was found in the formation of the antibody dye complex up to a factor of 50. Because of the slight change in the emission by adjusting the coumarin substitution in the position of the parent molecule which is not relevant for the antigen binding, a dye toolbox which can be used for the construction of competitive multiparameter fluorescence enhancement immunoassays has been created. Due to their hydrophobic backbone, oligospirothioketal rods (OSTK) are easily incorporated into lipid bilayers and are therefore used as an optical membrane probe. Because of their narrow diameter, only a minimal disturbance of the lipid bilayer is caused. By labeling with fluorescent dyes, novel Förster resonance energy transfer probes are available with highly defined relative orientations of the transition dipole moments of the donor and acceptor dyes, making the class of the OSTK probes into a powerful, flexible toolbox for optical biosensor applications. The incorporation of cumarin and [1,3]-dioxolo[4,5-f][1,3]benzodioxol-labeled OSTK rods in large unilamellar vesicles was investigated using steady-state and time-resolved fluorescence experiments and the results were confirmed by fluorescence depolarization measurements. The last part of this work deals with the synthesis and characterization of Cou- and DBD-functionalized polyprolines and their coupling to gold nanoparticles. The dye-labeled polyprolines were successfully synthesized. Influences on the spectroscopic properties of the dyes by binding to the polyproline helix were found. The coupling to 5 nm AuNP was successfully carried out. The experience gained by the coupling of the polyprolins to the AuNP can be used as a good basis for the investigation of a single molecule FRET AFM nanoscopy using OSTK rods. KW - FRET KW - Förster-Resonanz-Energie-Transfer KW - Förster resonance energy transfer KW - Origo-Spiro-Thio-Ketal-Stäbe KW - oligo spiro thio ketal rods KW - FRET Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-405833 ER - TY - THES A1 - Fischbach, Jens T1 - Isothermale Amplifikationsmethoden für den DNA- und Pyrophosphat-abhängigen Pathogennachweis T1 - Isothermal amplification methods for DNA- and pyrophophate based pathogen detection N2 - Hintergrund: Etablierte Protein- und Nukleinsäure-basierte Methoden für den spezifischen Pathogennachweis sind nur unter standardisierten Laborbedingungen von geschultem Personal durchführbar und daher mit einem hohen Zeit- und Kostenaufwand verbunden. In der Nukleinsäure-basierten Diagnostik kann durch die Einführung der isothermalen Amplifikation eine schnelle und kostengünstige Alternative zur Polymerase-Kettenreaktion (PCR) verwendet werden. Die Loop-mediated isothermal amplification (LAMP) bietet aufgrund der hohen Amplifikationseffizienz vielfältige Detektionsmöglichkeiten, die sowohl für Schnelltest- als auch für Monitoring-Anwendungen geeignet sind. Ein wesentliches Ziel dieser Arbeit war die Verbesserung der Anwendbarkeit der LAMP und die Entwicklung einer neuen Methode für den einfachen, schnellen und günstigen Nachweis von Pathogenen mittels alternativer DNA- oder Pyrophosphat-abhängiger Detektionsverfahren. Hier wurden zunächst direkte und indirekte Detektionsmethoden untersucht und darauf aufbauend ein Verfahren entwickelt, mit dem neue Metallionen-abhängige Fluoreszenzfarbstoffe für die selektive Detektion von Pyrophosphat in der LAMP und anderen enzymatischen Reaktionen identifiziert werden können. Als Alternative für die DNA-basierte Detektion in der digitalen LAMP sollten die zuvor etablierten Farbstoffe für den Pyrophosphatnachweis in einer Emulsion getestet werden. Abschließend wurde ein neuer Reaktionsmechanismus für die effiziente Generierung hochmolekularer DNA unter isothermalen Bedingungen als Alternative zur LAMP entwickelt. Ergebnisse: Für den Nachweis RNA- und DNA-basierter Phythopathogene konnte die Echtzeit- und Endpunktdetektion mit verschiedenen Farbstoffen in einem geschlossenen System etabliert werden. Hier wurde Berberin als DNA-interkalierender Fluoreszenzfarbstoff mit vergleichbarer Sensitivität zu SYBR Green und EvaGreen erfolgreich in der LAMP mit Echtzeitdetektion eingesetzt. Ein Vorteil von Berberin gegenüber den anderen Farbstoffen ist die Toleranz der DNA-Polymerase auch bei hohen Farbstoffkonzentrationen. Berberin kann daher auch in der geschlossenen LAMP-Reaktion ohne zusätzliche Anpassung der Reaktionsbedingungen für die Endpunktdetektion verwendet werden. Darüber hinaus konnte Hydroxynaphtholblau (HNB), das für den kolorimetrischen Endpunktnachweis bekannt ist, erstmals auch für die fluorimetrische Detektion der LAMP in Echtzeit eingesetzt werden. Zusätzlich konnten in der Arbeit weitere Metallionen-abhängige Farbstoffe zur indirekten Detektion der LAMP über das Pyrophosphat identifiziert werden. Dafür wurde eine iterative Methode entwickelt, mit der potenzielle Farbstoffe hinsichtlich ihrer Enzymkompatibilität und ihrer spektralen Eigenschaften bei An- oder Abwesenheit von Manganionen selektiert werden können. Mithilfe eines kombinatorischen Screenings im Mikrotiterplattenformat konnte die komplexe Konzentrationsabhängigkeit zwischen den einzelnen Komponenten für einen fluorimetrischen Verdrängungsnachweis untersucht werden. Durch die Visualisierung des Signal-Rausch-Verhältnis’ als Intensitätsmatrix (heatmap) konnten zunächst Alizarinrot S und Tetrazyklin unter simulierten Reaktionsbedingungen selektiert werden. In der anschließenden enzymatischen LAMP-Reaktion konnte insbesondere Alizarinrot S als günstiger, nicht-toxischer und robuster Fluoreszenzfarbstoff identifiziert werden und zeigte eine Pyrophosphat-abhängige Zunahme der Fluoreszenzintensität. Die zuvor etablierten Farbstoffe (HNB, Calcein und Alizarinrot S) konnten anschließend erfolgreich für die indirekte, fluorimetrische Detektion von Pyrophosphat in einer LAMP-optimierten Emulsion eingesetzt werden. Die Stabilität und Homogenität der generierten Emulsion wurde durch den Zusatz des Emulgators Poloxamer 188 verbessert. Durch die fluoreszenzmikroskopische Analyse der Emulsion war eine eindeutige Diskriminierung der positiven und negativen Tröpfchen vor allem bei Einsatz von Calcein und Alizarinrot S möglich. Aufgrund des komplexen Primer-Designs und der hohen Wahrscheinlichkeit unspezifischer Amplifikation in der LAMP wurde eine neue Bst DNA-Polymerase-abhängige isothermale Amplifikationsreaktion entwickelt. Durch die Integration einer spezifischen Linkerstruktur (abasische Stelle oder Hexaethylenglykol) zwischen zwei Primersequenzen konnte ein bifunktioneller Primer die effiziente Regenerierung der Primerbindungsstellen gewährleisten. Der neue Primer induziert nach der spezifischen Hybridisierung auf dem Templat die Rückfaltung zu einer Haarnadelstruktur und blockiert gleichzeitig die Polymeraseaktivität am Gegenstrang, wodurch eine autozyklische Amplifikation trotz konstanter Reaktionstemperatur möglich ist. Die Effizienz der „Hinge-initiated Primer dependent Amplification“ (HIP) konnte abschließend durch die Verkürzung der Distanz zwischen einem modifizierten Hinge-Primer und einem PCR-ähnlichen Primer verbessert werden. Schlussfolgerung: Die LAMP hat sich aufgrund der hohen Robustheit und Effizienz zu einer leistungsfähigen Alternative für die klassische PCR in der molekularbiologischen Diagnostik entwickelt. Unterschiedliche Detektionsverfahren verbessern die Leistungsfähigkeit der qualitativen und quantitativen LAMP für die Feldanwendungen und für die Diagnostik, da die neuen DNA- und Pyrophosphat-abhängigen Nachweismethoden in einer geschlossenen Reaktion eingesetzt werden können und so eine einfache Pathogendiagnostik ermöglichen. Die gezeigten Methoden können darüber hinaus zu einer Kostensenkung und Zeitersparnis gegenüber den herkömmlichen Methoden beitragen. Ein attraktives Ziel stellt die Weiterentwicklung der HIP für den Pathogennachweis als Alternative zur LAMP dar. Hierbei können die neuen LAMP-Detektionsverfahren ebenfalls Anwendung finden. Die Verwendung von Bst DNA-Polymerase-abhängigen Reaktionen ermöglicht darüber hinaus die Integration einer robusten isothermalen Amplifikation in mikrofluidische Systeme. Durch die Kombination der Probenvorbereitung, Amplifikation und Detektion sind zukünftige Anwendungen mit kurzer Analysezeit und geringem apparativen Aufwand insbesondere in der Pathogendiagnostik möglich. N2 - Background: Established protein- and nucleic acid-based methods for the specific pathogen detection are usually performed under standardized laboratory conditions by trained staff and are associated with long processing time and high costs. In nucleic acid-based pathogen diagnostics, the isothermal amplification can be used as a rapid and cost-effective alternative to the polymerase chain reaction (PCR). Among all isothermal techniques, the loop-mediated isothermal amplification (LAMP) offers a wide range of applications for the rapid endpoint and real-time detection. A major goal of this work, was to improve the applicability of LAMP and the development of a new method to get a simple, fast and cost-effective diagnostic tool that is based on the detection of DNA and pyrophosphate. For this purpose, direct and indirect detection methods were investigated as well as additional metal ion-dependent fluorescent dyes for the selective detection of pyrophosphate in LAMP or other enzymatic reactions identified. As an alternative to the DNA-based digital LAMP, the previously established dyes were tested for the detection of pyrophosphate in emulsion. Finally, a new reaction mechanism was developed that allows the efficient generation of high molecular weight DNA under isothermal reaction conditions. Results: The detection of RNA- and DNA-based phytopathogens in closed reactions was established successfully with different dyes for real-time and endpoint detection. Berberine as DNA-intercalating fluorescent dye was used in the real-time detection of LAMP with comparable sensitivity to SYBR Green and EvaGreen for the first time. Additionally, the results revealed adequate tolerance of the Bst DNA polymerase to higher concentrations of the dye. Thus, it could be used directly in a closed LAMP reaction without any optimization. Furthermore, the magnesium indicator hydroxynaphthol blue (HNB) was used for fluorometric real-time detection in LAMP for the first time. To extend the number of indirect detection methods for the accumulating pyrophosphate in LAMP and other enzymatic reactions, new metal-ion-dependent dyes were identified. The developed platform could support the iterative process of finding new fluorescent dyes with regard to enzyme compatibility and their spectral properties in the presence or absence of manganese ions. To obtain a selective fluorometric displacement assay, the complex concentration dependence between all components was investigated successfully by the establishment of a combinatorial screening in a microtiter plate. The visualization of the calculated signal-to-noise ratio was then used to identify alizarin red S and tetracycline as promising candidates under simulated reaction conditions. By testing both dyes in the enzymatic assay, alizarin red S was confirmed as low-cost, non-toxic and robust dye for the pyrophosphate dependent increase of the fluorescence intensity. The previously established dyes (HNB, calcein and alizarin red S) were applied successfully for the indirect and fluorometric detection of pyrophosphate in a LAMP-optimized emulsion. The stability and homogeneity of the generated emulsion was increased by adding the surfactant poloxamer 188. The fluorescence microscopic analysis showed a distinct discrimination between positive and negative droplets, in particular by using calcein, HNB and alizarin red S. Additionally, a new amplification reaction that is also based on the Bst DNA polymerase was developed to prevent the complicated primer design and likelihood of unspecific amplification in LAMP. The efficient regeneration of the single stranded priming site was achieved by the integration of a specific linker (abasic site or hexaethylenglycol) between two priming sites to create a bifunctional hinge-primer. After the hybridization on the template sequence, the hinge-primer was used to induce the refolding to a hairpin structure and for blocking the polymerase activity on the reverse strand. Thus, an autocyclic amplification can be achieved at isothermal reaction conditions. Finally, the efficiency of the hinge-initiated primer dependent amplification (HIP) was improved by decreasing the distance between the modified hinge-primer and the corresponding PCR-like primer. Conclusion: Due to its robustness and efficiency, LAMP has been developed to a powerful alternative for the standardized PCR-based diagnostics in molecular biology in the past years. Different detection methods improve the performance of the qualitative and quantitative LAMP in field applications as well as in diagnostics. The new DNA and pyrophosphate based assays can be used in closed reactions and contribute to a simple pathogen detection. Furthermore, the advancements can lead to a considerable reduction of costs and time compared to conventional methods. An attractive achievement is the further optimization of the HIP as sensitive pathogen assay by using LAMP-based detection methods. The use of Bst DNA polymerasedependent reactions will allow a robust integration of the isothermal amplification in microfluidic systems. By combining sample preparation, amplification and detection in one device, powerful applications with short analysis time and low instrumental requirements are a future perspective in pathogen diagnostics. KW - isothermale Amplifikation KW - isothermal amplification KW - Pyrophosphat KW - pyrophosphate KW - DNA KW - DNA KW - Pathogen KW - pathogen KW - LAMP KW - LAMP Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-406072 ER - TY - THES A1 - Foti, Alessandro T1 - Characterization of the human aldehyde oxidase T1 - Charakterisierung der menschlichen Aldehydoxidase BT - Studies on the FAD active site and ROS generation N2 - In this work the human AOX1 was characterized and detailed aspects regarding the expression, the enzyme kinetics and the production of reactive oxygen species (ROS) were investigated. The hAOX1 is a cytosolic enzyme belonging to the molybdenum hydroxylase family. Its catalytically active form is a homodimer with a molecular weight of 300 kDa. Each monomer (150 kDa) consists of three domains: a N-terminal domain (20 kDa) containing two [2Fe-2S] clusters, a 40 kDa intermediate domain containing a flavin adenine dinucleotide (FAD), and a C-terminal domain (85 kDa) containing the substrate binding pocket and the molybdenum cofactor (Moco). The hAOX1 has an emerging role in the metabolism and pharmacokinetics of many drugs, especially aldehydes and N- heterocyclic compounds. In this study, the hAOX1 was hetereogously expressed in E. coli TP1000 cells, using a new codon optimized gene sequence which improved the expressed protein yield of around 10-fold compared to the previous expression systems for this enzyme. To increase the catalytic activity of hAOX1, an in vitro chemical sulfuration was performed to favor the insertion of the equatorial sulfido ligand at the Moco with consequent increased enzymatic activity of around 10-fold. Steady-state kinetics and inhibition studies were performed using several substrates, electron acceptors and inhibitors. The recombinant hAOX1 showed higher catalytic activity when molecular oxygen was used as electron acceptor. The highest turn over values were obtained with phenanthridine as substrate. Inhibition studies using thioridazine (phenothiazine family), in combination with structural studies performed in the group of Prof. M.J. Romão, Nova Universidade de Lisboa, showed a new inhibition site located in proximity of the dimerization site of hAOX1. The inhibition mode of thioridazine resulted in a noncompetitive inhibition type. Further inhibition studies with loxapine, a thioridazine-related molecule, showed the same type of inhibition. Additional inhibition studies using DCPIP and raloxifene were carried out. Extensive studies on the FAD active site of the hAOX1 were performed. Twenty new hAOX1 variants were produced and characterized. The hAOX1 variants generated in this work were divided in three groups: I) hAOX1 single nucleotide polymorphisms (SNP) variants; II) XOR- FAD loop hAOX1 variants; III) additional single point hAOX1 variants. The hAOX1 SNP variants G46E, G50D, G346R, R433P, A439E, K1231N showed clear alterations in their catalytic activity, indicating a crucial role of these residues into the FAD active site and in relation to the overall reactivity of hAOX1. Furthermore, residues of the bovine XOR FAD flexible loop (Q423ASRREDDIAK433) were introduced in the hAOX1. FAD loop hAOX1 variants were produced and characterized for their stability and catalytic activity. Especially the variants hAOX1 N436D/A437D/L438I, N436D/A437D/L438I/I440K and Q434R/N436D/A437D/L438I/I440K showed decreased catalytic activity and stability. hAOX1 wild type and variants were tested for reactivity toward NADH but no reaction was observed. Additionally, the hAOX1 wild type and variants were tested for the generation of reactive oxygen species (ROS). Interestingly, one of the SNP variants, hAOX1 L438V, showed a high ratio of superoxide prodction. This result showed a critical role for the residue Leu438 in the mechanism of oxygen radicals formation by hAOX1. Subsequently, further hAOX1 variants having the mutated Leu438 residue were produced. The variants hAOX1 L438A, L438F and L438K showed superoxide overproduction of around 85%, 65% and 35% of the total reducing equivalent obtained from the substrate oxidation. The results of this work show for the first time a characterization of the FAD active site of the hAOX1, revealing the importance of specific residues involved in the generation of ROS and effecting the overall enzymatic activity of hAOX1. The hAOX1 SNP variants presented here indicate that those allelic variations in humans might cause alterations ROS balancing and clearance of drugs in humans. N2 - Aldehydoxidasen (AOX) sind Molybdo-enzyme, die durch breite Substratspezifität gekennzeichnet sind, aromatische/aliphatische Aldehyde in die entsprechenden Carbonsäuren oxidieren und verschiedene heteroaromatische Ringe hydroxylieren. Die Enzyme verwenden Sauerstoff als terminalen Elektronenakzeptor und produzieren reduzierte Sauerstoffspezies während des Umsatzes. Die physiologische Funktion von Säugetier-AOX-Isoenzymen ist noch unklar, aber menschliches AOX (hAOX1) ist ein Enzym von Phase-I-Wirkstoff-Metabolismus. Weiterhin, wurden zahlreiche Einzelnukleotidpolymorphismen (SNP) und weitere hAOX1-Mutanten im hAOX1-Gen identifiziert. SNPs sind eine Hauptquelle für die interindividuelle Variabilität in der menschlichen Population, und SNP-basierte Aminosäureaustausche in hAOX1 modulieren die katalytische Funktion des Enzyms entweder positiv oder negativ. In diesem Bericht haben wir zehn neue SNPs ausgewählt, die zu Aminosäureaustauschen in der Nähe der FAD-Cofaktor von hAOX1 führen und die gereinigten Enzyme nach heterologen Expression in Escherichia coli charakterisieren. Darüber hinaus haben wir zehn weitere FAD-Varianten produziert. Die hAOX1-Varianten wurden sorgfältig durch quantitative Unterschiede in ihrer Fähigkeit zur Herstellung von Superoxidradikal charakterisiert. ROS repräsentieren markante Schlüsselmoleküle in physiologischen und pathologischen Zuständen in der Zelle. Unsere Daten zeigen signifikante Veränderungen der Superoxid-Anionenproduktion unter den Varianten. Insbesondere führte der Rest L438 in der Nähe des Isoalloxanzinringes des FAD-Cofaktors zu einer erhöhten Superoxid-Radikalproduktion von 75-85%. In Anbetracht der hohen Toxizität des Superoxid-Anions in der Zelle ist die hAOX1-L438V SNP-Variante ein eventueller Kandidat für kritische oder pathologische Rollen dieser natürlichen Variante innerhalb der menschlichen Population. KW - aldehyde KW - oxidase KW - ROS KW - reactive oxygen species Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-410107 ER - TY - THES A1 - Garcia, Francisca T1 - Mundos comunes T1 - Gemein(sam)e Welten BT - redes artísticas y tramas documentales en los setenta latinoamericanos BT - künstlerische Netzwerke und dokumentarische Gewebe in den lateinamerikanischen siebziger Jahren N2 - Vor dem Hintergrund unterschiedlicher Bewegungen und künstlerischer Dialoge in den siebziger und achtziger Jahren, stellt ihre Doktorarbeit den Begriff des „Lateinamerikanischen“ auf dem Gebiet der Kunst und Kultur in Frage. Über eine „sammelnde Reise“ von Spuren, Zeichen und Fährten durch europäische Städte, analysiert die Arbeit die Begriffe Ort, Gemeinschaft und kulturelles Gedächtnis, um eine neue Form des lateinamerikanischen Kontinents bilden zu können. N2 - A partir de la constatación de una serie de movimientos y diálogos artísticos, correspondientes a las décadas del setenta y ochenta, su tesis doctoral interroga la noción de “lo latinoamericano” en el ámbito del arte y la cultura. La investigación realiza un “viaje recopilatorio” de documentos a través de distintas ciudades europeas que permiten problematizar el lugar, la comunidad y la memoria cultural de lo latinoamericano. KW - archive KW - community KW - Latin American art KW - artistic network KW - 70s KW - archivo KW - redes artísticas transatlánticas KW - comunidad KW - arte latinoamericano KW - años 70 Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-400582 ER - TY - THES A1 - Georgiev, Vasil T1 - Light-induced transformations in biomembranes T1 - Lichtinduzierte Transformationen in Biomembranen N2 - Cellular membranes constantly experience remodeling, as exemplified by morphological changes during endo- and exocytosis. Regulation of membrane morphology is essential for these processes. In this work, we attempt to establish a regulation path based on the use of photoswitches exhibiting conformational changes in model membranes, namely, giant unilamellar vesicles (GUVs). The mechanism of the changes in the GUVs’ morphology caused by isomerization of the photosensitive molecules has been previously explored but still remains elusive. We examine the morphological reshaping of GUVs in the presence of the photoswitch o-tetrafluoroazobenzene (F-azo) and show that the mechanism behind the resulting morphological changes involves both an increase in the membrane area and generation of a positive spontaneous curvature. First, we characterize the partitioning of F-azo in a single-component membrane using both experimental and computational approaches. The partition coefficient calculated from molecular dynamic simulations agrees with experimental data obtained with size-exclusion chromatography. Then, we implement the approach of vesicle electrodeformation in order to assess the increase in the membrane area, which is observed as a result of the conformational change of F-azo. Finally, the local and the effective membrane spontaneous curvatures were estimated from the observed shapes of vesicles exhibiting outward budding. We then extend the application of the F-azo to multicomponent lipid membranes, which exhibit a coexistence of domains in different liquid phases due to a miscibility gap between the lipids. We perform initial experiments to investigate whether F-azo can be employed to modulate the lateral lipid packing and organization. We observe either complete mixing of the domains or the appearing of disordered domains within the domains of more ordered phase. The type of behavior observed in response to the photoisomerization of F-azo was dependent on the used lipid composition. We believe that the findings introduced here will have an impact in understanding and controlling both lipid phase modulation and regulation of the membrane morphology in membrane systems. N2 - Zelluläre Membranen durchlaufen ständige Formveränderungen wie zum Beispiel bei der Endo- und Exozytose. Für diese und andere Prozesse ist eine Regulierung der Membranmorphologie notwendig. In der vorliegenden Arbeit wurden riesen unilamellare Vesikel (giant unilamellar vesicles, GUVs) als Modelmembranen genutzt. Änderungen der Vesikelform wurde durch lichtschaltbare Moleküle (Fotoschalter) erzielt. Dass die Isomerisierung von lichtempfindlichen Molekülen eine Verformung von GUV ermöglichen kann, war bekannt. Jedoch war der zugrunde liegende Mechanismus unklar. In dieser Arbeit wurde zur Untersuchung dieses Mechanismus o-Tetrafluoroazobenzol (F-azo) als Fotoschalter verwendet. Damit konnte gezeigt werden, dass sowohl eine Vergrößerung der Membranfläche als auch das Entstehen einer positiven, spontanen Membrankrümmung den morphologischen Veränderungen zu Grunde liegen. Durch experimentelle und computergestützte Methoden konnte zunächst die Verteilung von F-azo in Membranen, die aus nur einer Komponente bestehen, quantifiziert werden. Der Verteilungskoeffizient aus molekular-dynamik Simulationen stimmte dabei mit den experimentellen Daten aus der Größenausschluss-Chromatographie überein. Im Anschluss bestimmten wir die Änderung der Membranfläche mit Hilfe von GUV-Verformung durch elektrische Felder, und konnten die Veränderung der lokalen und effektiven spontanen Membrankrümmung durch Beobachtung der Vesikelformen abschätzen. Um herauszufinden ob F-azo die laterale Verdichtung und Organisation von Membranlipiden moduliert, weitteten wir die Experimente auf mehr-komponenten Membranen aus. Diese sind durch die Koexistenz von Domänen zweier flüssiger Lipid-Phasen gekennzeichnet. Wir konnten sowohl das Auftreten von Domänen ungeordneter Lipidphasen in geordneten Lipidphasen beobachten, als auch die Entstehung homogener GUVs durch komplette Mischung beider Lipidphasen. Wir konnten zeigen, dass die unterschiedliche Beeinflussung der Domänen durch die Licht-induzierte Isomerisierung von F-azo dabei von der Zusammensetzung der Membranen abhängig ist. Mit den hier beschriebenen Ergebnissen legen wir einen Grundstein, für die lichtinduzierte Kontrolle über Membranenmorphologien sowie für die Foto-Modulation von Lipidphasen. KW - giant unilamellar vesicles KW - morphological changes KW - light KW - photoswitches KW - riesen unilamellare Vesikel KW - morphologischen Veränderungen KW - Licht KW - Fotoschalter Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-395309 ER - TY - THES A1 - Golly, Antonius T1 - Formation and evolution of channel steps and their role for sediment dynamics in a steep mountain stream T1 - Formation und Evolution von Bachstufen und ihr Einfluss auf die Sedimentdynamik eines steilen Gebirgseinzugsgebietes N2 - Steep mountain channels are an important component of the fluvial system. On geological timescales, they shape mountain belts and counteract tectonic uplift by erosion. Their channels are strongly coupled to hillslopes and they are often the main source of sediment transported downstream to low-gradient rivers and to alluvial fans, where commonly settlements in mountainous areas are located. Hence, mountain streams are the cause for one of the main natural hazards in these regions. Due to climate change and a pronounced populating of mountainous regions the attention given to this threat is even growing. Although quantitative studies on sediment transport have significantly advanced our knowledge on measuring and calibration techniques we still lack studies of the processes within mountain catchments. Studies examining the mechanisms of energy and mass exchange on small temporal and spatial scales in steep streams remain sparse in comparison to low-gradient alluvial channels. In the beginning of this doctoral project, a vast amount of experience and knowledge of a steep stream in the Swiss Prealps had to be consolidated in order to shape the principal aim of this research effort. It became obvious, that observations from within the catchment are underrepresented in comparison to experiments performed at the catchment’s outlet measuring fluxes and the effects of the transported material. To counteract this imbalance, an examination of mass fluxes within the catchment on the process scale was intended. Hence, this thesis is heavily based on direct field observations, which are generally rare in these environments in quantity and quality. The first objective was to investigate the coupling of the channel with surrounding hillslopes, the major sources of sediment. This research, which involved the monitoring of the channel and adjacent hillslopes, revealed that alluvial channel steps play a key role in coupling of channel and hillslopes. The observations showed that hillslope stability is strongly associated with the step presence and an understanding of step morphology and stability is therefore crucial in understanding sediment mobilization. This finding refined the way we think about the sediment dynamics in steep channels and motivated continued research of the step dynamics. However, soon it became obvious that the technological basis for developing field tests and analyzing the high resolution geometry measured in the field was not available. Moreover, for many geometrical quantities in mountain channels definitions and a clear scientific standard was not available. For example, these streams are characterized by a high spatial variability of the channel banks, preventing straightforward calculations of the channel width without a defined reference. Thus, the second and inevitable part of this thesis became the development and evaluation of scientific tools in order to investigate the geometrical content of the study reach thoroughly. The developed framework allowed the derivation of various metrics of step and channel geometry which facilitated research on the a large data set of observations of channel steps. In the third part, innovative, physically-based metrics have been developed and compared to current knowledge on step formation, suggested in the literature. With this analyses it could be demonstrated that the formation of channel steps follow a wide range of hydraulic controls. Due to the wide range of tested parameters channel steps observed in a natural stream were attributed to different mechanisms of step formation, including those based on jamming and those based on key-stones. This study extended our knowledge on step formation in a steep stream and harmonized different, often time seen as competing, processes of step formation. This study was based on observations collected at one point in time. In the fourth part of this project, the findings of the snap-shot observations were extended in the temporal dimension and the derived concepts have been utilized to investigate reach-scale step patterns in response to large, exceptional flood events. The preliminary results of this work based on the long-term analyses of 7 years of long profile surveys showed that the previously observed channel-hillslope mechanism is the responsible for the short-term response of step formation. The findings of the long-term analyses of step patterns drew a bow to the initial observations of a channel-hillslope system which allowed to join the dots in the dynamics of steep stream. Thus, in this thesis a broad approach has been chosen to gain insights into the complex system of steep mountain rivers. The effort includes in situ field observations (article I), the development of quantitative scientific tools (article II), the reach-scale analyses of step-pool morphology (article III) and its temporal evolution (article IV). With this work our view on the processes within the catchment has been advanced towards a better mechanistic understanding of these fluvial system relevant to improve applied scientific work. N2 - Gebirgsbäche sind stark gekoppelt mit angrenzenden Hängen, welche eine Hauptquelle von Sediment darstellen. Dieses Sediment wird durch erosive Prozesse weiter im fluvialen System stromabwärts transportiert, häufig auch in Bereiche alpiner Besiedlung. Das transportierte Sediment kann dort verheerende Schäden an Gebäuden und Infrastruktur anrichten. Daher stellen Gebirgsbäche eine Hauptursache für Naturgefahren in steilen Regionen dar, welche durch den Wandel des Klimas und die fortschreitende Besiedlung durch den Menschen noch verstärkt werden. Wenngleich quantitative Studien unser Wissen über Mess- und Kalibrierungstechniken zur Erfassung von Sedimenttransport erweitert haben, so sind doch viele Prozesse innerhalb der Einzugsgebiete in Hinblick auf Erosion und Sedimentverfügbarkeit weitgehend unerforscht. So stellen Beobachtungen von Mechanismen von Energie- und Massenaustausch auf kleinen räumlichen und zeitlichen Skalen innerhalb steiler Gebirgseinzugsgebiete eine Ausname dar. Diese Doktorarbeit basiert auf hoch-qualitativen Feldbeobachtungen in einem schweizer Gebirgsbach um Forschungsfragen in Hinblick auf die Sediementdyanmik zu behandeln. Das erste Ziel war es, die Gerinne-Hang-Kopplung zu erforschen und zu verstehen, um mögliche Sedimentquellen zu identifizieren, sowie die Mechanismen und Prozesse der Sedimentgenerierung in den Kontext der allgemeinen Dynamik von Gebirgsbächen zu bringen. Die erste Studie, welche auf visuellen Beobachtungen basiert, offenbarte eine Schlüsselrolle von Bachstufen in der Gerinne-Hang-Kopplung. Auf dieser Grundlage wurde ein konzeptuelles Modell entwickelt (Artikel I): durch die Erosion von Bachstufen werden angrenzende Hänge destabilisiert und ermöglichen anhaltenden Sedimenteintrag. Diese Forschung regte eine genauere Beobachtung der räumlichen und zeitlichen Evolution von Bachstufen an. Die weitere Forschung erforderte jedoch neue technologische Werkzeuge und Methoden welche zunächst in dieser Doktorarbeit eigens entwickelt wurden (Artikel II). Mit diesen Werkzeugen wurde dann ein Datensatz eingemessener Bachstufen in Hinblick auf den Formationsprozess analysiert (Artikel III). Mit dieser Analyse konnten verschiedene Stufenbildungstheorien überprüft und und zwei dominante Mechanismen verifiziert werden: Bachstufen formen sich in engen und verengenden Bachabchnitten durch Verklemmung, sowie in breiten und breiter werdenden Abschnitten durch die Ablagerung von Schlüsselsteinen. Durch diese Beobachtung wurde unser Wissen über Stufenbildung erweitert indem verschiedene hypothetisierte Mechanismen in einem Gebirgsbach harmonisiert wurden. Zu guter Letzt wurde diese Punktbeobachtung schließlich in den zeitlichen Kontext gesetzt, indem die Muster von Bachstufen über 7 Jahre nach einem hydrologischen Großereignis in 2010 untersucht wurden (Artikel IV). Die vorläufigen Ergebnisse zeigen, dass Großereignisse einen erheblichen Einfluss auf die Gerinnebreite haben: sowohl die räumlich gemittelte Gerinnebreite, als auch die mittlere Gerinnebreite an Bachstufen ist unmittelbar nach dem Großereignis deutlich erhöht. Weiterhin ist die relative Anzahl der Bachstufen welche durch Schlüsselsteine erzeugt werden größer nach dem Großereignis. Dies deutet darauf hin, dass der zuerst beobachtete Mechanismus der Gerinne-Hang-Kopplung (Artikel I) verantwortlich ist für die zeitliche Evolution der Bachstufen nach Großereignissen (Artikel IV). KW - Geomorphologie KW - geomorphology KW - Naturgefahren KW - natural hazards KW - Gebirgsbäche KW - mountain rivers KW - Geschiebetransport KW - bedload transport KW - Bachstufen KW - channel steps KW - Gerinne-Hang-Kopplung KW - channel-hillslope coupling Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-411728 ER - TY - THES A1 - Graglia, Micaela T1 - Lignin valorization T1 - Lignin Valorisierung BT - extraction, characterization and applications BT - Extraktion, Charakterisierung und Anwendungen N2 - The topic of this project is the use of lignin as alternative source of aromatic building blocks and oligomers to fossil feedstocks. Lignin is known as the most abundant aromatic polymer in nature and is isolated from the lignocellulosic component of plants by different possible extraction treatments. Both the biomass source and the extraction method affect the structure of the isolated lignin, therefore influencing its further application. Lignin was extracted from beech wood by two different hydrothermal alkaline treatments, which use NaOH and Ba(OH)2 as base and by an acid-catalyzed organosolv process. Moreover, lignin was isolated from bamboo, beech wood and coconut by soda treatment of the biomasses. A comparison of the structural features of such isolated lignins was performed through the use of a wide range of analytical methods. Alkaline lignins resulted in a better candidate as carbon precursor and macromonomers for the synthesis of polymer than organosolv lignin. In fact, alkaline lignins showed higher residual mass after carbonization and higher content of the reactive hydroxy functionalities. In contrast, the lignin source turned out to slightly affect the lignin hydroxyl content. One of the most common lignin modifications is its deconstruction to obtain aromatic molecules, which can be used as starting materials for the synthesis of fine chemicals. Lignin deconstruction leads to a complex mixture of aromatic molecules. A gas chromatographic analytical method was developed to characterize the mixture of products obtained by lignin deconstruction via heterogeneous catalytic hydrogenolysis. The analytical protocol allowed the quantification of three main groups of molecules by means of calibration curves, internal standard and a preliminary silylation step of the sample. The analytical method was used to study the influence of the hydrogenolysis catalyst, temperature and system (flow and batch reactor) on the yield and selectivity of the aromatic compounds. Lignin extracted from beech wood by a hydrothermal process using Ba(OH)2 as base, was functionalized by aromatic nitration in order to add nitrogen functionalities. The final goal was the synthesis of a nitrogen doped carbon. Nitrated lignin was reduced to the amino form in order to compare the influence of different nitrogen functionalities on the porosity of the final carbon. The carbons were obtained by ionothermal treatment of the precursors in the presence of the eutectic salt mixture KCl/ZnCl2 Such synthesized carbons showed micro-, macro- and mesoporosity and were tested for their electrocatalytic activity towards the oxygen reduction reaction. Mesoporous carbon derived from nitro lignin displayed the highest electrocatalytic activity. Lignins isolated from coconut, beech wood and bamboo were used as macromonomers for the synthesis of biobased polyesters. A condensation reaction was performed between lignin and a hyper branched poly(ester-amine), previously obtained by condensation of triethanolamine and adipic acid. The influence of the lignin source and content on the thermochemical and mechanical properties of the final material was investigated. The prepolymer showed adhesive properties towards aluminum and its shear strength was therefore measured. The gluing properties of such synthesized glues turned out to be independent from the lignin source but affected by the amount of lignin in the final material. This work shows that, although still at a laboratory scale, the valorization of lignin can overcome the critical issues of lignin´s structure variability and complexity. N2 - Das Thema dieser Arbeit ist Lignin als alternative Quelle für aromatische Moleküle einzusetzen, welche sonst aus fossilen Rohstoffen hergestellt werden. Lignin ist das am häufigsten vorkommende aromatische Polymer in der Natur. Es wird durch verschiedene Extraktionsmethoden aus pflanzlicher Lignocellulose isoliert. Sowohl der Rohstoff als auch das Extraktionsverfahren beeinflussen die Struktur des isolierten Lignins und bestimmen dadurch die weiteren Anwendungsmöglichkeiten. In der vorliegenden Arbeit die wurde Lignin durch zwei alkalisch hydrothermale Extraktionsmethoden aus Buchenholz extrahiert, wobei entweder NaOH oder Ba(OH)2 verwendet wurde. Eine dritte Methode bedient sich der sogenannten säuerekatalysierten Organosolv-Extraktion. Das Weiteren wurden drei Lignine durch eine Soda Extraktionsmethode aus Bambus, Buchenholz und Kokosnussschalen isoliert. Die Strukturen dieser wurden mit Hilfe verschiedener analytischer Techniken analysiert und verglichen. Während alkalische Lignine sich besser als Ausgangsstoff für poröse Kohlenstoffmaterialien und Makromonomere für die Synthese von Polymeren eignen, zeigen Lignine aus dem Organosolv Prozess weniger gute Eigenschaften hinsichtlich dieser Applikationen. Die bis heute häufigste Modifikation von Lignin beschäftigt sich mit der Aufschließung zu aromatischen Molekülen, welche die Grundlage für die weitere Herstellung von Chemikalien darstellen. Um die Aufschlussprodukte der Hydrogenolyse aus Lignin vergleichen zu können, wurde während dieser Arbeit wurde eine Gaschromatographiemethode entwickelt. In einem weiteren Schritt wurde isoliertes Lignin aus Buchenholzspänen durch Nitrierung mit zusätzlichem Stickstoff funktionalisiert. Das modifizierte Lignin konnte direkt al Präkursor für stickstoffdotierte kohlen dienen, welche mittels ionothermaler Synthese mit Hilfe von KCl/ZnCl2 als eutektischem Salz hergestellt wurden. Diese Materialien wurden erfolgreich in der Sauerstoffreduktion als Katalysator zum Einsatz gebracht. Die gewonnen Lignine aus Kokosnussschalen, Bambus und Buchenholz wurden als Makromonomere für die Herstellung von biobasiertem Polyester verwendet. Sowohl die thermochemischen als auch die mechanischen Eigenschaften wurden durch die unterschiedlichen Lignine der verschiedenen Pflanzen beeinflusst. Das hergestellte Polymer zeigte gute Eigenschaften als Biomass-basierter Kleber. Mit dieser Arbeit konnte gezeigt werden, dass Lignin, obwohl es eine sehr variable und komplexe Struktur aufweis, in verschiedenen Anwendungsbereichen zum Einsatz kommen kann, auch wenn diese bis heute nur im Labormaßstab verwirklicht wurden. KW - Lignin KW - biorefinery KW - biomass KW - Lignin KW - Biomasse KW - Bioraffinerie Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-104863 ER - TY - THES A1 - Grimm-Seyfarth, Annegret T1 - Effects of climate change on a reptile community in arid Australia T1 - Auswirkungen von Klimawandel auf eine Reptiliengemeinschaft im ariden Australien BT - exploring mechanisms and processes in a hot, dry, and mysterious ecosystem BT - eine Untersuchung von Mechanismen und Prozessen in einem heißen, trockenen, und rätselhaften Ökosystem N2 - Dies ist eine kumulative Dissertation, die drei Originalstudien umfasst (eine publiziert, eine in Revision, eine eingereicht; Stand Dezember 2017). Sie untersucht, wie Reptilienarten im ariden Australien auf verschiedene klimatische Parameter verschiedener räumlicher Skalen reagieren und analysiert dabei zwei mögliche zugrunde liegende Hauptmechanismen: Thermoregulatorisches Verhalten und zwischenartliche Wechselwirkungen. In dieser Dissertation wurden umfassende, individuenbasierte Felddaten verschiedener trophischer Ebenen kombiniert mit ausgewählten Feldexperimenten, statistischen Analysen, und Vorhersagemodellen. Die hier erkannten Mechanismen und Prozesse können nun genutzt werden, um mögliche Veränderungen der ariden Reptiliengesellschaft in der Zukunft vorherzusagen. Dieses Wissen wird dazu beitragen, dass unser Grundverständnis über die Konsequenzen des globalen Wandels verbessert und Biodiversitätsverlust in diesem anfälligen Ökosystem verhindert wird. N2 - This is a cumulative dissertation comprising three original studies (one published, one in revision, one submitted; Effective December 2017) investigating how reptile species in arid Australia respond to various climatic parameters at different spatial scales and analysing the two potential main underlying mechanisms: thermoregulatory behaviour and species interactions. This dissertation combines extensive individual-based field data across trophic levels, selected field experiments, statistical analyses, and predictive modelling techniques. Mechanisms and processes detected in this dissertation can now be used to predict potential future changes in the community of arid-zone lizards. This knowledge will help improving our fundamental understanding of the consequences of global change and thereby prevent biodiversity loss in a vulnerable ecosystem. KW - Australien KW - Reptilien KW - Australia KW - reptiles KW - Populationsökologie KW - population ecology KW - Thermoregulationsverhalten KW - thermoregulatory behaviour KW - interspezifische Wechselwirkungen KW - interspecific interactions KW - Vorhersagemodelle KW - predictive modelling KW - Klimawandel KW - climate change KW - Wüste KW - desert Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-412655 ER - TY - THES A1 - Gudipudi, Venkata Ramana T1 - Cities and global sustainability T1 - Städte und globale Nachhaltigkeit BT - insights from emission and ecological efficiency BT - Einblicke von Emission und ökologischer Effizienz N2 - In the wake of 21st century, humanity witnessed a phenomenal raise of urban agglomerations as powerhouses for innovation and socioeconomic growth. Driving much of national (and in few instances even global) economy, such a gargantuan raise of cities is also accompanied by subsequent increase in energy, resource consumption and waste generation. Much of anthropogenic transformation of Earth's environment in terms of environmental pollution at local level to planetary scale in the form of climate change is currently taking place in cities. Projected to be crucibles for entire humanity by the end of this century, the ultimate fate of humanity predominantly lies in the hands of technological innovation, urbanites' attitudes towards energy/resource consumption and development pathways undertaken by current and future cities. Considering the unparalleled energy, resource consumption and emissions currently attributed to global cities, this thesis addresses these issues from an efficiency point of view. More specifically, this thesis addresses the influence of population size, density, economic geography and technology in improving urban greenhouse gas (GHG) emission efficiency and identifies the factors leading to improved eco-efficiency in cities. In order to investigate the in uence of these factors in improving emission and resource efficiency in cities, a multitude of freely available datasets were coupled with some novel methodologies and analytical approaches in this thesis. Merging the well-established Kaya Identity to the recently developed urban scaling laws, an Urban Kaya Relation is developed to identify whether large cities are more emission efficient and the intrinsic factors leading to such (in)efficiency. Applying Urban Kaya Relation to a global dataset of 61 cities in 12 countries, this thesis identifed that large cities in developed regions of the world will bring emission efficiency gains because of the better technologies implemented in these cities to produce and utilize energy consumption while the opposite is the case for cities in developing regions. Large cities in developing countries are less efficient mainly because of their affluence and lack of efficient technologies. Apart from the in uence of population size on emission efficiency, this thesis identified the crucial role played by population density in improving building and on-road transport sector related emission efficiency in cities. This is achieved by applying the City Clustering Algorithm (CCA) on two different gridded land use datasets and a standard emission inventory to attribute these sectoral emissions to all inhabited settlements in the USA. Results show that doubling the population density would entail a reduction in the total CO2 emissions in buildings and on-road sectors typically by at least 42 %. Irrespective of their population size and density, cities are often blamed for their intensive resource consumption that threatens not only local but also global sustainability. This thesis merged the concept of urban metabolism with benchmarking and identified cities which are eco-efficient. These cities enable better socioeconomic conditions while being less burden to the environment. Three environmental burden indicators (annual average NO2 concentration, per capita waste generation and water consumption) and two socioeconomic indicators (GDP per capita and employment ratio) for 88 most populous European cities are considered in this study. Using two different non-parametric ranking methods namely regression residual ranking and Data Envelopment Analysis (DEA), eco-efficient cities and their determining factors are identified. This in-depth analysis revealed that mature cities with well-established economic structures such as Munich, Stockholm and Oslo are eco-efficient. Further, correlations between objective eco-efficiency ranking with each of the indicator rankings and the ranking of urbanites' subjective perception about quality of life are analyzed. This analysis revealed that urbanites' perception about quality of life is not merely confined to the socioeconomic well-being but rather to their combination with lower environmental burden. In summary, the findings of this dissertation has three general conclusions for improving emission and ecological efficiency in cities. Firstly, large cities in emerging nations face a huge challenge with respect to improving their emission efficiency. The task in front of these cities is threefold: (1) deploying efficient technologies for the generation of electricity and improvement of public transportation to unlock their leap frogging potential, (2) addressing the issue of energy poverty and (3) ensuring that these cities do not develop similar energy consumption patterns with infrastructure lock-in behavior similar to those of cities in developed regions. Secondly, the on-going urban sprawl as a global phenomenon will decrease the emission efficiency within the building and transportation sector. Therefore, local policy makers should identify adequate fiscal and land use policies to curb urban sprawl. Lastly, since mature cities with well-established economic structures are more eco-efficient and urbanites' perception re ects its combination with decreasing environmental burden; there is a need to adopt and implement strategies which enable socioeconomic growth in cities whilst decreasing their environment burden. N2 - Im Laufe des 21. Jahrhunderts verzeichnete die Menschheit eine gewaltige Zunahme urbaner Agglomerationen als Motor für Innovation und soziökonomisches Wachstum. Angetrieben durch die nationale (und in wenigen Fällen auch globale) Wirtschaft, dieser gigantische Aufstieg der Städte ist allerdings auch mit einer Zunahme von Energie- und Ressourcenverbrauch sowie erhöhter Abfallerzeugung verbunden. Ein Großteil der anthropogenen Transformation der Umwelt in Form von Klimaveränderungen von der lokalen Ebene bis in die planetarische Dimension findet derzeit in Städten statt. Angenommen dass bis zum Ende des Jahrhunderts die gesamte Menschheit in einer Art Schmelztiegel miteinander verbunden sein wird, dann hängt ihr Schicksal von der Umsetzung innovativer und überlegender Entwicklungspfade heutiger und zukünftiger Städte ab. Angesichts des unvergleichlichen Energie- und Ressourcenverbrauchs sowie der Emissionen, die derzeit in Städten verursacht werden, befasst sich diese Arbeit mit genau diesen Fragen aus der Perspektive der Effizienz. Genauer gesagt, diese Arbeit befasst sich mit dem Einfluss der städtischen Größe, Dichte, Wirtschaftsgeographie und Technologie zur Verbesserung der Emissionseffizienz der städtischen Treibhausgase, mit dem Ziel die Faktoren, die zu einer Verbesserung der ökoeffizienz in Städten führt, zu identifizieren. Um den Einfluss dieser Faktoren auf die Verbesserung der Emissions- und Ressourceneffizienz in Städten zu untersuchen, wurden in dieser Arbeit eine Vielzahl von frei verfügbaren Datensätzen mit neuartigen Methoden und analytischen Ansätzen gekoppelt. Durch die Verschmelzung der bereits etablierten Kaya-Identität‘ mit den kürzlich entwickelten urbanen Skalierungsgesetzen wird eine ’urbane Kaya-Relation’ entwickelt, um herauszufinden, ob Großstädte emissionsärmer also effizienter sind und welche Faktoren zu dieser (In-)Effizienz führen. Dafür wurde die ’urbanen Kaya-Relation’ auf einen globalen Datensatz für 61 Städte in 12 Ländern angewendet. Die vorliegende Arbeit kommt zu dem Ergebnis, dass den Großstädten in den entwickelten Regionen der Welt Effizienzgewinne aufgrund des Einsatzes besserer Technologien für die Produktion und Nutzung von Energie gelingt, während für die Städte in Entwicklungsländern das Gegenteil gilt. Großstädte in Entwicklungsländern sind weniger effizient, vor allem wegen ihres Wohlstands und des Mangels an effizienten Technologien. Abgesehen vom Einfluss der Bevölkerungsgröße auf die Emissionseffizienz, zeigt diese Arbeit auch die entscheidende Rolle der Bevölkerungsdichte bei der Effizienzsteigerung im Bau- und Transportsektor. Dies wird durch die Anwendung des City Clustering Algorithmus (CCA) auf zwei verschiedene raster-basierte Landnutzungsdatensätze und ein Standard-Emissionskataster erreicht, um die sektoralen Emissionen allen bewohnten Siedlungen in den USA zuzuordnen. Die Ergebnisse zeigen, dass eine Verdoppelung der Bevölkerungsdichte eine Verringerung der CO2-Gesamtemissionen in Gebäuden und Straßenverkehrssektoren um typischerweise mindestens 42% bedeuten würde. Unabhängig von der Bevölkerungsgröße und -dichte werden Städte häufig für ihren intensiven Ressourcenverbrauch verantwortlich gemacht, der nicht nur die lokale, sondern auch die globale Nachhaltigkeit bedroht. Diese Arbeit verbindet das Konzept des urbanen Metabolismus mit Benchmarking und identifiziert Städten, die ökoeffizient sind. Diese Städte bieten bessere sozioökonomische Bedingungen und belasten die Umwelt weniger. In dieser Studie werden drei Indikatoren für die Umweltbelastung (jährliche durchschnittliche NO2-Konzentration, Abfallaufkommen pro Kopf und Wasserverbrauch) und zwei sozioökonomische Indikatoren (BIP pro Kopf und Beschäftigungsquote) für die 88 bevölkerungsreichsten europäischen Städte berücksichtigt. Mithilfe von zwei verschiedenen Rankingmethoden, einerseits dem regression residual ranking‘ und der Data Envelopment Analysis‘ (DEA), werden ökoeffiziente Städte und ihre Bestimmungsfaktoren identifiziert. Die gründliche Analyse ergab, dass die gewachsenen Städte mit etablierten städtischen Wirtschaften wie München, Stockholm und Oslo ökoeffizient sind. Weiterhin wurden Zusammenhänge zwischen objektiven ökoeffizienz Einstufungen (ranking) mit den Einstufungen hinsichtlich einzelner Indikatoren sowie der subjektiven Wahrnehmung der Stadtbewohner über ihre Lebensqualität analysiert. Diese Analyse ergab, dass sich die Wahrnehmung der Lebensqualität von Stadtbewohnern nicht nur auf das sozioökonomische Wohlergehen beschränkt, sondern auch auf die Kombination mit einer geringeren Umweltbelastung. Zusammenfassend lässt sich sagen, dass die Ergebnisse dieser Dissertation drei generelle Schlussfolgerungen zur Verbesserung der Emissions- und ökoeffizienz in Städten enthalten. Erstens stehen Großstädte in Schwellenländern wie China, Indien und Brasilien vor einer großen Herausforderung, ihre Emissionseffizienz zu verbessern. Vor diesen Städten stehen drei Aufgaben: (1) Einsatz effizienter Technologien zur Stromerzeugung und Verbesserung des öffentlichen Verkehrs, (2) Bekämpfung der Energiearmut und (3) Sicherstellung, dass diese Städte keine Energiekonsummuster entwickeln, die dem infrastrukturellen Lock-in-Verhalten‘ der Städte in entwickelten Regionen ähneln. Zweitens wird die fortschreitende Zersiedelung der Städte als globales Phänomen die Emissionseffizienz im Bau- und Verkehrssektor verringern. Daher sollten die lokalen politischen Entscheidungsträger angemessene fiskal- und landnutzungspolitische Maßnahmen zur Eindämmung der Zersiedelung der Städte festlegen. Schließlich müssen Strategien verabschiedet und umgesetzt werden, die das sozioökonomische Wachstum in den Städten ermöglicht und gleichzeitig die Umweltbelastung verringert, wie es in den gewachsenen Städten bereits heute vorzufinden ist. KW - cities KW - climate change KW - urban efficiency KW - sustainable urban development KW - Städe KW - Klimawandel KW - Städte Effizienz KW - nachaltige Städteentwicklung Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407113 ER - TY - THES A1 - Guidi, Giovanni T1 - Connecting simulations and observations in galaxy formation studies T1 - Verknüpfung von Simulationen und Beobachtungen bei der Untersuchung der Galaxienenstehung N2 - Observational and computational extragalactic astrophysics are two fields of research that study a similar subject from different perspectives. Observational extragalactic astrophysics aims, by recovering the spectral energy distribution of galaxies at different wavelengths, to reliably measure their properties at different cosmic times and in a large variety of environments. Analyzing the light collected by the instruments, observers try to disentangle the different processes occurring in galaxies at the scales of galactic physics, as well as the effect of larger scale processes such as mergers and accretion, in order to obtain a consistent picture of galaxy formation and evolution. On the other hand, hydrodynamical simulations of galaxy formation in cosmological context are able to follow the evolution of a galaxy along cosmic time, taking into account both external processes such as mergers, interactions and accretion, and internal mechanisms such as feedback from Supernovae and Active Galactic Nuclei. Due to the great advances in both fields of research, we have nowadays available spectral and photometric information for a large number of galaxies in the Universe at different cosmic times, which has in turn provided important knowledge about the evolution of the Universe; at the same time, we are able to realistically simulate galaxy formation and evolution in large volumes of the Universe, taking into account the most relevant physical processes occurring in galaxies. As these two approaches are intrinsically different in their methodology and in the information they provide, the connection between simulations and observations is still not fully established, although simulations are often used in galaxies' studies to interpret observations and assess the effect of the different processes acting on galaxies on the observable properties, and simulators usually test the physical recipes implemented in their hydrodynamical codes through the comparison with observations. In this dissertation we aim to better connect the observational and computational approaches in the study of galaxy formation and evolution, using the methods and results of one field to test and validate the methods and results of the other. In a first work we study the biases and systematics in the derivation of the galaxy properties in observations. We post-process hydrodynamical cosmological simulations of galaxy formation to calculate the galaxies' Spectral Energy Distributions (SEDs) using different approaches, including radiative transfer techniques. Comparing the direct results of the simulations with the quantities obtained applying observational techniques to these synthetic SEDs, we are able to make an analysis of the biases intrinsic in the observational algorithms, and quantify their accuracy in recovering the galaxies' properties, as well as estimating the uncertainties affecting a comparison between simulations and observations when different approaches to obtain the observables are followed. Our results show that for some quantities such as the stellar ages, metallicities and gas oxygen abundances large differences can appear, depending on the technique applied in the derivation. In a second work we compare a set of fifteen galaxies similar in mass to the Milky Way and with a quiet merger history in the recent past (hence expected to have properties close to spiral galaxies), simulated in a cosmological context, with data from the Sloan Digital Sky Survey (SDSS). We use techniques to obtain the observables as similar as possible to the ones applied in SDSS, with the aim of making an unbiased comparison between our set of hydrodynamical simulations and SDSS observations. We quantify the differences in the physical properties when these are obtained directly from the simulations without post-processing, or mimicking the SDSS observational techniques. We fit linear relations between the values derived directly from the simulations and following SDSS observational procedures, which in most of the cases have relatively high correlation, that can be easily used to more reliably compare simulations with SDSS data. When mimicking SDSS techniques, these simulated galaxies are photometrically similar to galaxies in the SDSS blue sequence/green valley, but have in general older ages, lower SFRs and metallicities compared to the majority of the spirals in the observational dataset. In a third work, we post-process hydrodynamical simulations of galaxies with radiative transfer techniques, to generate synthetic data that mimic the properties of the CALIFA Integral Field Spectroscopy (IFS) survey. We reproduce the main characteristics of the CALIFA observations in terms of field of view and spaxel physical size, data format, point spread functions and detector noise. This 3-dimensional dataset is suited to be analyzed by the same algorithms applied to the CALIFA dataset, and can be used as a tool to test the ability of the observational algorithms in recovering the properties of the CALIFA galaxies. To this purpose, we also generate the resolved maps of the simulations' properties, calculated directly from the hydrodynamical snapshots, or from the simulated spectra prior to the addition of the noise. Our work shows that a reliable connection between the models and the data is of crucial importance both to judge the output of galaxy formation codes and to accurately test the observational algorithms used in the analysis of galaxy surveys' data. A correct interpretation of observations will be particularly important in the future, in light of the several ongoing and planned large galaxy surveys that will provide the community with large datasets of properties of galaxies (often spatially-resolved) at different cosmic times, allowing to study galaxy formation physics at a higher level of detail than ever before. We have shown that neglecting the observational biases in the comparison between simulations and an observational dataset may move the simulations to different regions in the planes of the observables, strongly affecting the assessment of the correctness of the sub-resolution physical models implemented in galaxy formation codes, as well as the interpretation of given observational results using simulations. N2 - Beobachtende und computergestütze extragalaktische Astrophysik sind zwei Forschugnsbereiche welche ein ähnliches Gebiet in unterschiedlichen Perspektiven untersuchen. Beobachtende extragalaktische Astrophysik hat das Ziel verlässlich die Eigenschaften bei verschiedenen kosmischen Zeiten und bei einer großen Vielzahl von Umgebungen, durch das Betrachten der spektralen Energieverteilung der Galaxien, zu vermessen. Auf der anderen Seite sind hydrodynamische Simulationen im kosmologischen Kontext in der Lage die Entstehung und zeitliche Entwicklung einer Galaxie zu verfolgen, in dem unterschiedliche physikalische Prozesse einbezogen werden. Aufgrund der großen Fortschritte beider Forschungsbereiche sind heutzutage große Datenbanken mit Spektren und photometrische Informationen für eine große Menge von Galaxien bei verschiedenen kosmischen Zeiten verfügbar. Zur gleichen Zeit sind wir in der Lage die Entstehung und Entwicklung von Galaxien realistisch zu simulieren, unter Berücksichtigung der wichtigsten physikalischen Prozesse. Da diese Ansätze grundlegend verschieden sind, ist die Verbindung von Simulationen und Beobachtungen nicht komplett hergestellt, obwohl Simulationen oft zur Interpretation von Beobachtungen genutzt werden und Simulationen durch den Vergleich mit Beobachtungen getestet werden. Das Ziel dieser Dissertation ist die bessere Verknüpfung von Simulationen und Beobachtungen durch die Verwendung der Methoden und Ergebnisse der einen Methode, zur Validierung der anderen und umgekehrt. In einer ersten Arbeit untersuchen wir die systematischen Effekte bei der Vermessung der Eigenschaften von Galaxien in Beobachtungen. Indem wir direkt Simulationen mit syntetischen Daten vergleichen, ist es uns möglich die systematischen Effekte der Beobachtungsalgorithmen zu untersuchen und ihre Genauigkeit bei der Untersuchung der Eigenschaften der Galaxien zu bestimmen. Unsere Ergebnisse ziegen, dass für einige Messgrößen große Unterschiede auftreten können. In einer zweiten Arbeit vergleichen wir 15 simulierte Spiralgalaxien mit ähnlicher Masse wie der Milchstraße mit Daten vom Sloan Digital Sky Survey (SDSS). Dabei verwenden wir die gleichen Methoden, welche bei SDSS verwendet werden, um möglischest unvoreingenommen zwischen hydrodynamischen Simulationen und SDSS Daten zu vergleichen. Wenn wir die Beobachtungsmethoden von SDSS nachahmen, sind die simulierten Galaxien den SDSS Galaxien der blauen Sequenz in der Photometrie ähnlich, aber haben generell höheres Alter, geringere Sternentstehungsrate und Metalizität. In einer dritten Arbeit bearbeiten wir hydrodynamische Simulationen von Galaxien mit Strahlungstransportalgorithmen um synthetische Daten des CALIFA Integralfeldspektroskopie Surveys (IFS) zu erzeugen. Wir reproduzieren die Hauptcharakteristika der CALIFA-Beobachtungen in Bezug auf Sichtfeld, Spaxelgröße, Datenformat, Punktspreizfunktion und Detektorrauschen. Dieser dreidimensionale Datensatz is geeignet, um mit den selben Techniken analysiert zu werden, wie die CALIFA-Daten und können als Mittel genutzt werden, um die Genauigkeit der Beobachtungsalgorithmen zu testen. Zu diesem Zweck erzeugen wir räumlich aufgelöste Eigenschaften der Simulationen, welche direkt von den Aufnahmen der hydrodynamischen Simulationen oder synthetischen Spektren ohne Rauschen berechnet werden. Unsere Arbeit zeigt, dass die verlässliche Verknüpfung von Modellen und Daten von entscheidender Wichtigkeit ist ist, um die Ergebnisse der Galaxieformationssimulationen zu beurteilen und akurat die Beobachtungsalgorithmen zu testen, welche bei der Analyse der Galaxiesurveydaten benutzt werden. Eine korrekte Interpretation der Beobachtungen wird im Hinblick auf die vielen fortlaufenden und geplanten Galaxiesurveys, welche den Wissenschaftern große Datenmengen der Eigenschaften der Galaxien bei unterschiedlichen Zeiten zur Verfügung stellen werden, besonders wichtig in der Zukunft, da dies eine genauere Untersuchung der Physik der Galaxieformationen auf einem Niveau, höher als je zuvor, ermöglichen wird. Außerdem haben wir gezeigt, dass bei dem Vergleichen zwischen Beobachtungen und Simulationen der Bias der Beobachtungen nicht vernachlässigbar ist und die Beurteilung der Korrekturen der physikalischen Modelle, welche in en Galaxieformationscodes implementiert ist, stark beeinflusst, als auch die Interpretation der gegebenen Ergebnisse der Beobachtungen bei Verwendung von Simulationen. KW - galaxy formation KW - galaxy evolution KW - cosmological simulations KW - numerical techniques KW - mock observations KW - Entstehung von Galaxien KW - Entwicklung von Galaxien KW - kosmologische Simulationen KW - numerische Methoden KW - synthetische Beobachtungen Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-396876 ER - TY - THES A1 - Heck, Christian T1 - Gold and silver nanolenses self-assembled by DNA origami T1 - Gold- und Silbernanolinsen, selbstassembliert durch DNA-Origami N2 - Nanolenses are linear chains of differently-sized metal nanoparticles, which can theoretically provide extremely high field enhancements. The complex structure renders their synthesis challenging and has hampered closer analyses so far. Here, the technique of DNA origami was used to self-assemble DNA-coated 10 nm, 20 nm, and 60 nm gold or silver nanoparticles into gold or silver nanolenses. Three different geometrical arrangements of gold nanolenses were assembled, and for each of the three, sets of single gold nanolenses were investigated in detail by atomic force microscopy, scanning electron microscopy, dark-field scattering and Raman spectroscopy. The surface-enhanced Raman scattering (SERS) capabilities of the single nanolenses were assessed by labelling the 10 nm gold nanoparticle selectively with dye molecules. The experimental data was complemented by finite-difference time-domain simulations. For those gold nanolenses which showed the strongest field enhancement, SERS signals from the two different internal gaps were compared by selectively placing probe dyes on the 20 nm or 60 nm gold particles. The highest enhancement was found for the gap between the 20 nm and 10 nm nanoparticle, which is indicative of a cascaded field enhancement. The protein streptavidin was labelled with alkyne groups and served as a biological model analyte, bound between the 20 nm and 10 nm particle of silver nanolenses. Thereby, a SERS signal from a single streptavidin could be detected. Background peaks observed in SERS measurements on single silver nanolenses could be attributed to amorphous carbon. It was shown that the amorphous carbon is generated in situ. N2 - Nanolinsen sind Strukturen aus linear angeordneten, unterschiedlich großen metallischen Nanopartikeln. Elektromagnetische Felder können durch sie theoretisch extrem verstärkt werden, aufgrund ihres komplexen Aufbaus sind sie bislang aber wenig erforscht. Im Rahmen dieser Dissertation wurden Nanolinsen mit Hilfe der DNA-Origami-Technik aus DNA-beschichteten 10 nm-, 20 nm- und 60 nm-Gold- oder Silbernanopartikeln hergestellt. Für Goldnanolinsen sind die Partikel dabei in drei unterschiedlichen Geometrien angeordnet worden. Einzelne Goldnanolinsen wurden mittels Rasterkraftmikroskopie, Rasterelektronenmikroskopie, Dunkelfeld- und Ramanspektroskopie untersucht. Um die Raman-Verstärkung quantifizieren zu können, trugen dabei jeweils die 10 nm-Goldpartikel Farbstoffmoleküle in ihrer Beschichtung. Die Interpretation der Messdaten wurde durch numerische Simulationen unterstützt. Nanolinsen zeichnen sich durch eine stufenweise Feldverstärkung aus. Dieser Effekt konnte experimentell bestätigt werden, indem selektiv die 20 nm- oder 60 nm-Partikel von Goldnanolinsen mit Farbstoffen markiert und die resultierenden Raman-Signale verglichen wurden. Ein mit Alkingruppen markiertes Protein ist ortsselektiv in Silbernanolinsen integriert worden. Es war möglich, das für das Alkin charakteristische oberflächenverstärkte Raman-Signal im Spektrum einer einzelnen Nanolinse und damit eines einzelnen Proteins zu beobachten. Bei den Messungen mit Silbernanolinsen sind für amorphe Kohlenstoffspezies charakterstische Hintergrundsignale beobachtet worden. Durch zeitabhängige Messungen konnte gezeigt werden, dass diese Spezies erst in situ gebildet werden. KW - DNA origami KW - gold nanoparticles KW - silver nanoparticles KW - SERS KW - self-assembly KW - plasmonics KW - nanolenses KW - DNA-Origami KW - Goldnanopartikel KW - Silbernanopartikel KW - SERS KW - Selbstassemblierung KW - Plasmonik KW - Nanolinsen Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-409002 ER - TY - THES A1 - Heinke, David T1 - Entwicklung biokompatibler superparamagnetischer Nanopartikel für den Einsatz als in vivo-Diagnostikum insbesondere im Magnetic Particle Imaging T1 - Development of biocompatible and superparamagnetic nanoparticles for use as in vivo diagnostics especially in magnetic particle imaging N2 - Magnetische Eisenoxidnanopartikel werden bereits seit geraumer Zeit erfolgreich als MRT-Kontrastmittel in der klinischen Bildgebung eingesetzt. Durch Optimierung der magnetischen Eigenschaften der Nanopartikel kann die Aussagekraft von MR-Aufnahmen verbessert und somit der diagnostische Wert einer MR-Anwendung weiter erhöht werden. Neben der Verbesserung bestehender Verfahren wird die bildgebende Diagnostik ebenso durch die Entwicklung neuer Verfahren, wie dem Magnetic Particle Imaging, vorangetrieben. Da hierbei das Messsignal von den magnetischen Nanopartikeln selbst erzeugt wird, birgt das MPI einen enormen Vorteil hinsichtlich der Sensitivität bei gleichzeitig hoher zeitlicher und räumlicher Auflösung. Da es aktuell jedoch keinen kommerziell vertriebenen in vivo-tauglichen MPI-Tracer gibt, besteht ein dringender Bedarf an geeigneten innovativen Tracermaterialien. Daraus resultierte die Motivation dieser Arbeit biokompatible und superparamagnetische Eisenoxidnanopartikel für den Einsatz als in vivo-Diagnostikum insbesondere im Magnetic Particle Imaging zu entwickeln. Auch wenn der Fokus auf der Tracerentwicklung für das MPI lag, wurde ebenso die MR-Performance bewertet, da geeignete Partikel somit alternativ oder zusätzlich als MR-Kontrastmittel mit verbesserten Kontrasteigenschaften eingesetzt werden könnten. Die Synthese der Eisenoxidnanopartikel erfolgte über die partielle Oxidation von gefälltem Eisen(II)-hydroxid und Green Rust sowie eine diffusionskontrollierte Kopräzipitation in einem Hydrogel. Mit der partiellen Oxidation von Eisen(II)-hydroxid und Green Rust konnten erfolgreich biokompatible und über lange Zeit stabile Eisenoxidnanopartikel synthetisiert werden. Zudem wurden geeignete Methoden zur Formulierung und Sterilisierung etabliert, wodurch zahlreiche Voraussetzungen für eine Anwendung als in vivo-Diagnostikum geschaffen wurden. Weiterhin ist auf Grundlage der MPS-Performance eine hervorragende Eignung dieser Partikel als MPI-Tracer zu erwarten, wodurch die Weiterentwicklung der MPI-Technologie maßgeblich vorangetrieben werden könnte. Die Bestimmung der NMR-Relaxivitäten sowie ein initialer in vivo-Versuch zeigten zudem das große Potential der formulierten Nanopartikelsuspensionen als MRT-Kontrastmittel. Die Modifizierung der Partikeloberfläche ermöglicht ferner die Herstellung zielgerichteter Nanopartikel sowie die Markierung von Zellen, wodurch das mögliche Anwendungsspektrum maßgeblich erweitert wurde. Im zweiten Teil wurden Partikel durch eine diffusionskontrollierte Kopräzipitation im Hydrogel, wobei es sich um eine bioinspirierte Modifikation der klassischen Kopräzipitation handelt, synthetisiert, wodurch Partikel mit einer durchschnittlichen Kristallitgröße von 24 nm generiert werden konnten. Die Bestimmung der MPS- und MR-Performance elektrostatisch stabilisierter Partikel ergab vielversprechende Resultate. In Vorbereitung auf die Entwicklung eines in vivo-Diagnostikums wurden die Partikel anschließend erfolgreich sterisch stabilisiert, wodurch der kolloidale Zustand in MilliQ-Wasser über lange Zeit aufrechterhalten werden konnte. Durch Zentrifugation konnten die Partikel zudem erfolgreich in verschiedene Größenfraktionen aufgetrennt werden. Dies ermöglichte die Bestimmung der idealen Aggregatgröße dieses Partikelsystems in Bezug auf die MPS-Performance. N2 - Magnetic nanoparticles have long been successfully implemented in the clinic as contrast agents for magnetic resonance imaging (MRI). Through optimization of the nanoparticles’ magnetic properties, an improvement in the resulting diagnostic images can be achieved, which in turn increases the diagnostic value of the MRI procedure. The advancement of diagnostic imaging is brought about not only through the improvement of established diagnostic techniques, but also through the development of new methodologies such as Magnetic Particle Imaging (MPI). In MPI, the measured signal arises directly from the magnetic particles and, thus, the technique holds great promise in terms of sensitivity and spatial resolution. Since there are currently no commercially available MPI tracers for in vivo use, the development of optimal tracer materials that are biocompatible and, thus, suitable for in vivo application, is becoming increasingly important. Therefore, the aim of this work was to develop biocompatible superparamagnetic iron oxide nanoparticles for application as an in vivo diagnostic agent in particular for MPI. Even though the focus lay on the development of an MPI tracer, the MR performance of the generated magnetic nanoparticles was also addressed, since such particles can be also be used as an MRI contrast agent with improved contrast efficacy. Synthesis of the superparamagnetic iron oxide nanoparticles was performed either via partial oxidation of precipitated iron (II) hydroxide and green rust or through a diffusion-controlled co-precipitation reaction in a hydrogel. The partial oxidation synthetic route gave rise to biocompatible and colloidally stable iron oxide nanoparticles. Furthermore, suitable methods for the formulation and sterilization of these particles were developed, enabling many of the prerequisites for successful in vivo application to be addressed. The resulting outstanding magnetic particle spectra (MPS) performance of the synthesized nanoparticles enables their suitability as an effective MPI tracer, assisting the advancement of the MPI technology. Moreover, the MR relaxivity values of the particles as well as results obtained from a preliminary in vivo MRI experiment revealed the high potential of the formulated nanoparticle suspensions for application as MRI contrast agents. In addition, chemical modification of the particle surface was performed, which enables the fabrication of target-specific nanoparticles as well as magnetic labeling of certain cell types e.g. stem cells. Nanoparticle synthesis via a diffusion-controlled co-precipitation strategy in a hydrogel, which is a bioinspired modification of the classical co-precipitation reaction, resulted in particles with a mean crystal diameter of 24 nm. Measurement of the MPS and MR performances of such electrostatically-stabilized particles revealed promising results. So as to promote the development of these particles for use as in vivo diagnostic agents, the particles were sterically stabilized and were found to be colloidally stable on the long-term in aqueous solution. Through centrifugation, the particles were successfully separated in batches of varying mean particle sizes, allowing for the determination of the ideal size of this particle system in terms of the MPS performance. KW - Magnetic Particle Imaging KW - Magnetresonanztomograpgie KW - magnetic resonance imaging KW - iron oxide nanoparticle KW - Eisenoxidnanopartikel Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-406196 ER - TY - THES A1 - Heise, Janine T1 - Phylogenetic and physiological characterization of deep-biosphere microorganisms in El’gygytgyn Crater Lake sediments T1 - Phylogenetische und physiologische Charakterisierung der Tiefen Biosphäre in El'gygytgyn Kraterseesedimenten N2 - The existence of diverse and active microbial ecosystems in the deep subsurface – a biosphere that was originally considered devoid of life – was discovered in multiple microbiological studies. However, most of the studies are restricted to marine ecosystems, while our knowledge about the microbial communities in the deep subsurface of lake systems and their potentials to adapt to changing environmental conditions is still fragmentary. This doctoral thesis aims to build up a unique data basis for providing the first detailed high-throughput characterization of the deep biosphere of lacustrine sediments and to emphasize how important it is to differentiate between the living and the dead microbial community in deep biosphere studies. In this thesis, up to 3.6 Ma old sediments (up to 317 m deep) of the El’gygytgyn Crater Lake were examined, which represents the oldest terrestrial climate record of the Arctic. Combining next generation sequencing with detailed geochemical characteristics and other environmental parameters, the microbial community composition was analyzed in regard to changing climatic conditions within the last 3.6 Ma to 1.0 Ma (Pliocene and Pleistocene). DNA from all investigated sediments was successfully extracted and a surprisingly diverse (6,910 OTUs) and abundant microbial community in the El’gygytgyn deep sediments were revealed. The bacterial abundance (10³-10⁶ 16S rRNA copies g⁻¹ sediment) was up to two orders of magnitudes higher than the archaeal abundance (10¹-10⁵) and fluctuates with the Pleistocene glacial/interglacial cyclicality. Interestingly, a strong increase in the microbial diversity with depth was observed (approximately 2.5 times higher diversity in Pliocene sediments compared to Pleistocene sediments). The increase in diversity with depth in the Lake El’gygytgyn is most probably caused by higher sedimentary temperatures towards the deep sediment layers as well as an enhanced temperature-induced intra-lake bioproductivity and higher input of allochthonous organic-rich material during Pliocene climatic conditions. Moreover, the microbial richness parameters follow the general trends of the paleoclimatic parameters, such as the paleo-temperature and paleo-precipitation. The most abundant bacterial representatives in the El’gygytgyn deep biosphere are affiliated with the phyla Proteobacteria, Actinobacteria, Bacteroidetes, and Acidobacteria, which are also commonly distributed in the surrounding permafrost habitats. The predominated taxon was the halotolerant genus Halomonas (in average 60% of the total reads per sample). Additionally, this doctoral thesis focuses on the live/dead differentiation of microbes in cultures and environmental samples. While established methods (e.g., fluorescence in situ hybridization, RNA analyses) are not applicable to the challenging El’gygytgyn sediments, two newer methods were adapted to distinguish between DNA from live cells and free (extracellular, dead) DNA: the propidium monoazide (PMA) treatment and the cell separation adapted for low amounts of DNA. The applicability of the DNA-intercalating dye PMA was successfully evaluated to mask free DNA of different cultures of methanogenic archaea, which play a major role in the global carbon cycle. Moreover, an optimal procedure to simultaneously treat bacteria and archaea was developed using 130 µM PMA and 5 min of photo-activation with blue LED light, which is also applicable on sandy environmental samples with a particle load of ≤ 200 mg mL⁻¹. It was demonstrated that the soil texture has a strong influence on the PMA treatment in particle-rich samples and that in particular silt and clay-rich samples (e.g., El’gygytgyn sediments) lead to an insufficient shielding of free DNA by PMA. Therefore, a cell separation protocol was used to distinguish between DNA from live cells (intracellular DNA) and extracellular DNA in the El’gygytgyn sediments. While comparing these two DNA pools with a total DNA pool extracted with a commercial kit, significant differences in the microbial composition of all three pools (mean distance of relative abundance: 24.1%, mean distance of OTUs: 84.0%) was discovered. In particular, the total DNA pool covers significantly fewer taxa than the cell-separated DNA pools and only inadequately represents the living community. Moreover, individual redundancy analyses revealed that the microbial community of the intra- and extracellular DNA pool are driven by different environmental factors. The living community is mainly influenced by life-dependent parameters (e.g., sedimentary matrix, water availability), while the extracellular DNA is dependent on the biogenic silica content. The different community-shaping parameters and the fact, that a redundancy analysis of the total DNA pool explains significantly less variance of the microbial community, indicate that the total DNA represents a mixture of signals of the live and dead microbial community. This work provides the first fundamental data basis of the diversity and distribution of microbial deep biosphere communities of a lake system over several million years. Moreover, it demonstrates the substantial importance of extracellular DNA in old sediments. These findings may strongly influence future environmental community analyses, where applications of live/dead differentiation avoid incorrect interpretations due to a failed extraction of the living microbial community or an overestimation of the past community diversity in the course of total DNA extraction approaches. N2 - Innerhalb der letzten 20 Jahre wurden diverse und aktive mikrobielle Gemeinschaften in zahlreichen Habitaten der tiefen Biosphäre gefunden, in denen zuvor kein Leben denkbar war. Die mikrobiologischen Untersuchungen beschränken sich dabei meist auf marine Ökosysteme, wohingegen das Wissen über die tiefe Biosphäre von Seesystemen und die Anpassung der Mikroorganismen an sich ändernde klimatische Bedingungen noch sehr eingeschränkt ist. Ziel dieser Arbeit ist es, die mikrobielle Gemeinschaftsstruktur der tiefen Biosphäre des El‘gygytgyn Kratersees in Hinblick auf klimatische Veränderungen der vergangenen 1,0 bis 3,6 Millionen Jahre zu charakterisieren, beeinflussende Umweltparameter zu detektieren und dabei zwischen der lebenden und toten mikrobiellen Gemeinschaft zu differenzieren. Die Seesedimente (43-317 m tief) weisen eine erstaunlich hohe Diversität (6910 OTUs) und Mikrobenfülle (10³-10⁶ bakterielle, 10¹-10⁵ archaeale 16S rRNA Kopien g⁻¹ Sediment) auf, wobei eine 2,5-fach höhere Diversität in den pliozänen Sedimenten im Vergleich zu den jüngeren pleistozänen Sedimenten detektiert werden konnte. Der Diversitätsanstieg mit zunehmendem Sedimentalter (und Tiefe) basiert höchstwahrscheinlich auf die erhöhte temperaturinduzierte Bioaktivität im See und dem erhöhten Eintrag von Organik reichen Material innerhalb des Pliozäns (feucht und warm). Die Unterscheidung zwischen der DNA lebender Mikroben (intrazellulare DNA) und freier DNA (extrazellulare DNA, meist von toten Mikroben) wurde durch die Adaption von zwei Extraktionsmethoden, der Behandlung mit Propidium-Monoazid (PMA) und der Zellseparation, erreicht. Dabei wurde ein PMA-Protokoll (130 µM PMA, 5 Min Lichtaktivierung mit blauen LEDs) zur erfolgreichen Behandlung von Reinkulturen methanogener Archaeen etabliert, das auch für sandige Umweltproben (Partikelbeladung ≤ 200 mg mL⁻¹) nutzbar ist. Für die feinporigeren Seesedimente des El’gygytgyn Kratersees wurden die zellseparierten DNA-Pools der iDNA und eDNA mit dem Gesamt-DNA-Extrakt (kommerzielles Kit) verglichen, wobei die DNA-Pools starke Unterschiede in ihrer Zusammensetzung aufzeigten (24,1% Distanz basierend auf relative Häufigkeiten) und der Gesamt-DNA-Extrakt die lebende mikrobielle Gemeinschaft nur unzureichend widerspiegeln konnte. Individuelle Redundanzanalysen (RDA) zeigten, dass die mikrobielle Gemeinschaft der iDNA von lebensbeeinflussenden Parametern abhängig ist (u.a. Sedimentmatrix, Wasserverfügbarkeit), wohingegen die der eDNA maßgeblich durch den Anteil an biogener Kieselerde (silica) beeinflusst wird. Diese Arbeit stellt die erste umfangreiche Datenbasis der Diversität und Verteilung von Mikroorganismengemeinschaften in der tiefen Biosphäre eines Seesystems über mehrere Millionen Jahre dar. Zusätzlich zeigt die Studie, dass die Lebend/Tot-Unterscheidung, mit dem ein höherer Anteil der Varianz innerhalb der Gemeinschaft durch Umweltparameter erklärt werden kann, im Vergleich zur Gesamt-DNA-Extraktion ein wesentlicher Schritt zur genauen Widerspiegelung der mikrobiellen Gemeinschaft und deren Funktion in der Tiefen Biosphäre ist. KW - Mikrobiologie KW - El`gygytgyn Kratersee KW - Tiefe Biosphäre KW - Diversität KW - microbiology KW - El’gygytgyn Crater Lake KW - diversity KW - deep biosphere Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403436 ER - TY - THES A1 - Hendriyana, Andri T1 - Detection and Kirchhoff-type migration of seismic events by use of a new characteristic function T1 - Detektion und Kirchhoff-Migration seismischer Ereignisse durch Verwendung einer neuen charakteristischen Funktion N2 - The classical method of seismic event localization is based on the picking of body wave arrivals, ray tracing and inversion of travel time data. Travel time picks with small uncertainties are required to produce reliable and accurate results with this kind of source localization. Hence recordings, with a low Signal-to-Noise Ratio (SNR) cannot be used in a travel time based inversion. Low SNR can be related with weak signals from distant and/or low magnitude sources as well as with a high level of ambient noise. Diffraction stacking is considered as an alternative seismic event localization method that enables also the processing of low SNR recordings by mean of stacking the amplitudes of seismograms along a travel time function. The location of seismic event and its origin time are determined based on the highest stacked amplitudes (coherency) of the image function. The method promotes an automatic processing since it does not need travel time picks as input data. However, applying diffraction stacking may require longer computation times if only limited computer resources are used. Furthermore, a simple diffraction stacking of recorded amplitudes could possibly fail to locate the seismic sources if the focal mechanism leads to complex radiation patterns which typically holds for both natural and induced seismicity. In my PhD project, I have developed a new work flow for the localization of seismic events which is based on a diffraction stacking approach. A parallelized code was implemented for the calculation of travel time tables and for the determination of an image function to reduce computation time. In order to address the effects from complex source radiation patterns, I also suggest to compute diffraction stacking from a characteristic function (CF) instead of stacking the original wave form data. A new CF, which is called in the following mAIC (modified from Akaike Information Criterion) is proposed. I demonstrate that, the performance of the mAIC does not depend on the chosen length of the analyzed time window and that both P- and S-wave onsets can be detected accurately. To avoid cross-talk between P- and S-waves due to inaccurate velocity models, I separate the P- and S-waves from the mAIC function by making use of polarization attributes. Then, eventually the final image function is represented by the largest eigenvalue as a result of the covariance analysis between P- and S-image functions. Before applying diffraction stacking, I also apply seismogram denoising by using Otsu thresholding in the time-frequency domain. Results from synthetic experiments show that the proposed diffraction stacking provides reliable results even from seismograms with low SNR=1. Tests with different presentations of the synthetic seismograms (displacement, velocity, and acceleration) shown that, acceleration seismograms deliver better results in case of high SNR, whereas displacement seismograms provide more accurate results in case of low SNR recordings. In another test, different measures (maximum amplitude, other statistical parameters) were used to determine the source location in the final image function. I found that the statistical approach is the preferred method particularly for low SNR. The work flow of my diffraction stacking method was finally applied to local earthquake data from Sumatra, Indonesia. Recordings from a temporary network of 42 stations deployed for 9 months around the Tarutung pull-apart Basin were analyzed. The seismic event locations resulting from the diffraction stacking method align along a segment of the Sumatran Fault. A more complex distribution of seismicity is imaged within and around the Tarutung Basin. Two lineaments striking N-S were found in the middle of the Tarutung Basin which support independent results from structural geology. These features are interpreted as opening fractures due to local extension. A cluster of seismic events repeatedly occurred in short time which might be related to fluid drainage since two hot springs are observed at the surface near to this cluster. N2 - Klassische seismologische Verfahren zur Lokalisierung seismischer Ereignisse basieren auf der Bestimmung der Ankunftszeiten von Raumwellenphasen, der Berechnung von Strahlwegen in Untergrundmodellen sowie der Inversion der Laufzeitdaten. Um mit dieser Methode zuverlässige und genaue Lokalisierungsergebnisse zu erhalten, werden Laufzeitdaten mit kleinen Unsicherheiten benötigt. Folgerichtig müssen Seismogramme mit sehr geringen Signal-zu-Rausch Verhältnissen (S/N) häufig verworfen werden. Geringe S/N können einerseits durch schwache Signale am Empfänger, z.B. wegen großer Entfernungen zur Quelle und/oder bei Quellen mit kleiner Magnitude, und andererseits durch einen hohen Rauschpegel verursacht werden. Eine alternative Methode zur Herdlokalisierung ist die sogenannte Diffraktions-Stapel-ung. Hierbei werden die Amplituden der aufgezeichneten Wellenformen entlang von vorhergesagten Laufzeitfunktionen aufgestapelt. Durch konstruktive Aufsummation können auch Signale von Seismogrammen mit geringem S/N zur Lokalisierung beitragen. Als Teil des Verfahrens wird eine sogenannte Image-Funktion berechnet, deren maximale Amplitude (Kohärenz) mit dem Ort und der Zeit des Bebenherdes verknüpft ist. Die Methodik ist für eine Implementation von automatisierten Überwachungssystemen geeignet. Von Nachteil ist der relative hohe Rechenaufwand. Außerdem müssen bei der Diffraktions-Stapelung die komplizierten Abstrahlcharakteristika im Quellbereich und deren Auswirkungen auf die Signale an verschiedenen Empfängern im Unterschied zur Laufzeit-Inversion mit berücksichtigt werden. In meiner Arbeit habe ich eine neue Methodik zur Lokalisierung von Bebenherden unter Verwendung einer Diffraktions-Stapelung entwickelt. Zunächst werden Laufzeiten (Green’s Funktionen) für potentielle Herdlokationen mit Hilfe eines parallelisierten Algorithmus berechnet. Eine erste Vorbearbeitung der Seismogramme mit der Otsu-Threshold-ing Methode im Zeit-Frequenz-Bereich dient zur Unterdrückung von nicht-stationären Rauschanteilen. Anschliessend wird eine neu entwickelte charakteristische Funktion (CF) berechnet, um P- und S-Welleneinsätze in den gefilterten Daten noch stärker hervorzuheben. Die vorgeschlagene CF basiert auf einer modifizierten Version des Akaike Kriteriums. Die neue CF liefert stabile Resultate, die im Unterschied zum klassischen Akaike-Kriterium nicht von der subjektiv festzulegenden Länge des Analysefensters abhängig sind. Die Verwendung der CF ist darüber hinaus entscheidend, um den unerwünschten Einfluss der Abstrahlcharakteristik auf die gemessenen Amplituden bei der Diffraktions-Stapelung zu eliminieren. Eine finale Image-Funktion wird mit Hilfe einer Kovarianzmatrix-Analyse von P- und S- Image-Funktionen bestimmt, um daraus schließlich die Herdlokation zu ermitteln. Das neue Verfahren wird an Hand von synthetischen Daten getestet. Zuverlässige und genaue Resultate konnten selbst bei sehr geringen S/N von 1 erzielt werden. Tests mit verschiedenen Seismogramm-Varianten (Verschiebung, Geschwindigkeit, Beschleunigung) ergaben, dass bei hohem S/N Beschleunigungs-Seismogramme und bei sehr niedrigen S/N Verschiebungs-Seismogramme die besten Ergebnisse lieferten. Schliesslich wurde das Verfahren auf Daten aus einer Lokalbebenuntersuchung auf Sumatra (Indonesien) angewendet. Über einen Zeitraum von 9 Monaten wurde mit einem Netzwerk aus 42 Stationen die Seismizität im Bereich des Tarutung-Beckens an der Sumatra-Störung (SF) erfasst. Die Methode bildete hierbei ein lineares Segment der SF ab. Im Tarutung-Becken wurde eine komplexere Bebenverteilung abgeleitet. Ein Vergleich mit strukturgeologischen Daten liefert Rückschlüsse auf das tektonische und geothermische Regime im Untersuchungsgebiet. KW - time-series analysis KW - inverse theory KW - earthquake source observations KW - seismicity and tectonics KW - wave scattering and diffraction KW - body waves KW - computational seismology KW - Zeitreihenanalyse KW - Inversions-Theorie KW - Beobachtung von Erdbebenquellen KW - Seismizität und Tektonik KW - Wellenbrechung und Diffraktion KW - Raumwellen KW - computergestützte Seismologie Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398879 ER - TY - THES A1 - Hentrich, Doreen T1 - Grenzflächen-kontrollierte Mineralisation von Calciumphosphat T1 - Interface-controlled mineralization of calcium phosphate N2 - In der vorliegenden Arbeit konnte gezeigt werden, dass die beiden verwendeten Amphiphile mit Cholesterol als hydrophoben Block, gute Template für die Mineralisation von Calciumphosphat an der Wasser/Luft-Grenzfläche sind. Mittels Infrarot-Reflexions-Absorptions-Spektroskopie (IRRAS), Röntgenphotoelektronenspektroskopie (XPS), Energie dispersiver Röntgenspektroskopie (EDXS), Elektronenbeugung (SAED) und hochauflösende Transmissionselektronenmikroskopie (HRTEM) konnte die erfolgreiche Mineralisation von Calciumphosphat für beide Amphiphile an der Wasser/Luft-Grenzfläche nachgewiesen werden. Es konnte auch gezeigt werden, dass das Phasenverhalten der beiden Amphiphile und die bei der Mineralisation von Calciumphosphat gebildeten Kristallphasen nicht identisch sind. Beide Amphiphile üben demnach einen unterschiedlichen Einfluss auf den Mineralisationsverlauf aus. Beim CHOL-HEM konnte sowohl nach 3 h als auch nach 5 h Octacalciumphosphat (OCP) als einzige Kristallphase mittels XPS, SAED, HRTEM und EDXS nachgewiesen werden. Das A-CHOL hingegen zeigte bei der Mineralisation von Calciumphosphat nach 1 h zunächst eine nicht eindeutig identifizierbare Vorläuferphase aus amorphen Calciumphosphat, Brushit (DCPD) oder OCP. Diese wandelte sich dann nach 3 h und 5 h in ein Gemisch, bestehend aus OCP und ein wenig Hydroxylapatit (HAP) um. Die Schlussfolgerung daraus ist, dass das CHOL-HEM in der Lage ist, dass während der Mineralisation entstandene OCP zu stabilisieren. Dies geschieht vermutlich durch die Adsorption des Amphiphils bevorzugt an der OCP Oberfläche in [100] Orientierung. Dadurch wird die Spaltung entlang der c-Achse unterdrückt und die Hydrolyse zum HAP verhindert. Das A-CHOL ist hingegen sterisch anspruchsvoller und kann wahrscheinlich aufgrund seiner Größe nicht so gut an der OCP Kristalloberfläche adsorbieren verglichen zum CHOL HEM. Das CHOL-HEM kann also die Hydrolyse von OCP zu HAP besser unterdrücken als das A-CHOL. Da jedoch auch beim A-CHOL nach einer Mineralisationszeit von 5 h nur wenig HAP zu finden ist, wäre auch hier ein Stabilisierungseffekt der OCP Kristalle möglich. Um eine genaue Aussage darüber treffen zu können, sind jedoch zusätzliche Kontrollexperimente notwendig. Es wäre zum einen denkbar, die Mineralisationsexperimente über einen längeren Zeitraum durchzuführen. Diese könnten zeigen, ob das CHOL-HEM die Hydrolyse vom OCP zum HAP komplett unterdrückt. Außerdem könnte nachgewiesen werden, ob beim A-CHOL das OCP weiter zum HAP umgesetzt wird oder ob ein Gemisch beider Kristallphasen erhalten bleibt. Um die Mineralisation an der Wasser/Luft-Grenzfläche mit der Mineralisation in Bulklösung zu vergleichen, wurden zusätzlich Mineralisationsexperimente in Bulklösung durchgeführt. Dazu wurden Nitrilotriessigsäure (NTA) und Ethylendiamintetraessigsäure (EDTA) als Mineralisationsadditive verwendet, da NTA unter anderem der Struktur der hydrophilen Kopfgruppe des A-CHOLs ähnelt. Es konnte gezeigt werden, dass ein Vergleich der Mineralisation an der Grenzfläche mit der Mineralisation in Bulklösung nicht ohne weiteres möglich ist. Bei der Mineralisation in Bulklösung wird bei tiefen pH-Werten DCPD und bei höheren pH-Werten HAP gebildet. Diese wurde mittels Röntgenpulverdiffraktometrie Messungen nachgewiesen und durch Infrarotspektroskopie bekräftigt. Die Bildung von OCP wie an der Wasser/Luft-Grenzfläche konnte nicht beobachtet werden. Es konnte auch gezeigt werden, dass beide Additive NTA und EDTA einen unterschiedlichen Einfluss auf den Verlauf der Mineralisation nehmen. So unterscheiden sich zum einen die Morphologien des gebildeten DCPDs und zum anderen wurde beispielsweise in Anwesenheit von 10 und 15 mM NTA neben DCPD auch HAP bei einem Ausgangs-pH-Wert von 7 nachgewiesen. Da unser Augenmerk speziell auf der Mineralisation von Calciumphosphat an der Wasser/Luft-Grenzfläche liegt, könnten Folgeexperimente wie beispielsweise GIXD Messungen durchgeführt werden. Dadurch wäre es möglich, einen Überblick über die gebildeten Kristallphasen nach unterschiedlichen Reaktionszeiten direkt auf dem Trog zu erhalten. Es konnte weiterhin gezeigt werden, dass auch einfache Amphiphile in der Lage sind, die Mineralisation von Calciumphosphat zu steuern. Amphiphile mit Cholesterol als hydrophoben Block bilden offensichtlich besonders stabile Monolagen an der Wasser/Luft-Grenzfläche. Eine Untersuchung des Einflusses ähnlicher Amphiphile mit unterschiedlichen hydrophilen Kopfgruppen auf das Mineralisationsverhalten von Calciumphosphat wäre durchaus interessant. N2 - In the current thesis two amphiphiles were used as templates for the mineralization of calcium phosphate at the air-water interface. Both amphiphiles have a cholesteryl group as hydrophobic block and only differ in their hydrophilic unit. The amphiphile CHOL-HEM has one carboxylic acid as the hydrophilic unit and the amphiphile A-CHOL contains a Newkome type dendron as hydrophilic block. The successful mineralization of calcium phosphate at the air-water interface could be prove by infrared reflection absorption spectroscopy, X-ray photoelectron spectroscopy, energy-dispersive X-ray spectroscopy, selected area electron diffraction and high resolution transmission electron microscopy. Furthermore, the study shows that the two amphiphiles have a different influence on the mineralization leading to different calcium phosphate phases. The crystal phase formed in case of the CHOL-HEM is octacalcium phosphate (OCP). For the A-CHOL a precursor phase after 1 h mineralization time was formed which could not be identified clearly. The precursor phase could be amorphous calcium phosphate, dicalcium hydrogen phosphate dihydrate (DCPD) or OCP. This phase transformed into a mixture of OCP and a small amount of hydroxyapatite (HAP). In conclusion, it can be demonstrated that the CHOL-HEM is able to stabilize the OCP. This could happen by the adsorption of the amphiphile at the OCP crystal surface in [100] direction and therefore the splitting along the c-axis is hampered and the hydrolysis into HAP will be prevented. The hydrophilic block of the A-CHOL is much bigger and sterically more demanding. For that reason, the A-CHOL cannot adsorb at the OCP crystal surface as good as the CHOL-HEM. The CHOL-HEM can prevent the hydrolysis from OCP into HAP much more efficiently. Due to the fact, that after 5 h mineralization time using A-CHOL as template just a small amount of HAP could be identified suggests that also this amphiphile shows a stabilizing effect on the OCP crystals. To prove this, additional control experiments would be necessary. The A-CHOL shows a better control in terms of the orientation of the mineralized crystals, which could be mostly identified as OCP crystals in [110] and HAP crystals in [-110] orientation. For the CHOL-HEM no preferred orientation could be determined for the formed OCP crystals. Additional mineralization experiments in bulk solution using ethylenediaminetetraacetic acid disodium salt dihydrate (EDTA) and nitrilotriacetic acid (NTA) as mineralization additives were performed. The structure of the NTA is similar to the hydrophilic unit of the A-CHOL. The study shows that the comparison of the mineralization at the air-water interface with the mineralization in bulk solution is not easily possible. For the mineralization in bulk solution at low pH values DCPD and at high pH values HAP is formed. These two phases could be identified using X-ray powder diffraction and infrared spectroscopy. The formation of OCP like for the mineralization at the air-water interface could not be observed. Both additives, EDTA and NTA show a different influence on the mineralization progress and show for example different morphologies of the precipitated DCPD. KW - Calciumphosphat KW - Mineralisation KW - Wasser-Luft-Grenzfläche KW - calcium phosphate KW - mineralization KW - air-water interface Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398236 ER - TY - THES A1 - Herbrich, Marcus T1 - Einfluss der erosionsbedingten Pedogenese auf den Wasserund Stoffhaushalt ackerbaulich genutzter Böden der Grundmoränenbodenlandschaft NO-Deutschlands - hydropedologische Untersuchungen mittels wägbarer Präzisionslysimeter T1 - Effects of erosion-affected soil evolution on water and dissolved carbon fluxes, soil hydraulic properties, and crop development of soils from a hummocky ground moraine landscape - hydropedological analysis using high precision weighing lysimeters N2 - In the arable soil landscape of hummocky ground moraines, an erosion-affected spatial differentiation of soils can be observed. Man-made erosion leads to soil profile modifications along slopes with changed solum thickness and modified properties of soil horizons due to water erosion in combination with tillage operations. Soil erosion creates, thereby, spatial patterns of soil properties (e.g., texture and organic matter content) and differences in crop development. However, little is known about the manner in which water fluxes are affected by soil-crop interactions depending on contrasting properties of differently-developed soil horizons and how water fluxes influence the carbon transport in an eroded landscape. To identify such feedbacks between erosion-induced soil profile modifications and the 1D-water and solute balance, high-precision weighing lysimeters equipped with a wide range of sensor technique were filled with undisturbed soil monoliths that differed in the degree of past soil erosion. Furthermore, lysimeter effluent concentrations were analyzed for dissolved carbon fractions in bi-weekly intervals. The water balance components measured by high precision lysimeters varied from the most eroded to the less eroded monolith up to 83 % (deep drainage) primarily caused due to varying amounts of precipitation and evapotranspiration for a 3-years period. Here, interactions between crop development and contrasting rainfall interception by above ground biomass could explain differences in water balance components. Concentrations of dissolved carbon in soil water samples were relatively constant in time, suggesting carbon leaching was mainly affected by water fluxes in this observation period. For the lysimeter-based water balance analysis, a filtering scheme was developed considering temporal autocorrelation. The minute-based autocorrelation analysis of mass changes from lysimeter time series revealed characteristic autocorrelation lengths ranging from 23 to 76 minutes. Thereby, temporal autocorrelation provided an optimal approximation of precipitation quantities. However, the high temporal resolution in lysimeter time series is restricted by the lengths of autocorrelation. Erosion-induced but also gradual changes in soil properties were reflected by dynamics of soil water retention properties in the lysimeter soils. Short-term and long-term hysteretic water retention data suggested seasonal wettability problems of soils increasingly limited rewetting of previously dried pore regions. Differences in water retention were assigned to soil tillage operations and the erosion history at different slope positions. The threedimensional spatial pattern of soil types that result from erosional soil profile modifications were also reflected in differences of crop root development at different landscape positions. Contrasting root densities revealed positive relations of root and aboveground plant characteristics. Differences in the spatially-distributed root growth between different eroded soil types provided indications that root development was affected by the erosion-induced soil evolution processes. Overall, the current thesis corroborated the hypothesis that erosion-induced soil profile modifications affect the soil water balance, carbon leaching and soil hydraulic properties, but also the crop root system is influenced by erosion-induced spatial patterns of soil properties in the arable hummocky post glacial soil landscape. The results will help to improve model predictions of water and solute movement in arable soils and to understand interactions between soil erosion and carbon pathways regarding sink-or-source terms in landscapes. N2 - Hydropedologische Wechselwirkungen zwischen Wasserflüssen und erosionsbedingten Veränderungen im Profilaufbau ackerbaulich genutzter Böden treten insbesondere in der Jungmoränenlandschaft auf, die sich durch eine überwiegend flachwellige bis kuppige Topographie auszeichnet. Mit der dynamischen Veränderung von Bodenprofilen, wie etwa der veränderten Solumtiefe und Horizontabfolgen, sowie deren Verteilungen in der Landschaft gehen Veränderungen in den bodenhydraulischen Eigenschaften einher. Über deren Auswirkungen auf den Wasser- und Stoffhaushalt ist bislang nur wenig bekannt. Im Rahmen dieser Dissertation wurden kontinuierliche Messungen aus vier Jahren (2011 bis 2014) unter Verwendung von wägbaren Lysimetern in der ackerbaulich genutzten Bodenlandschaft Nordostdeutschlands (Uckermark) erhoben. Dabei sollte die zentrale Frage, inwieweit die erosionsbedingte Pedogenese, in Wechselwirkung mit der pflanzenbaulichen Nutzung, den Wasser- und Kohlenstoffhaushalt beeinflusst, beantwortet werden. Ziel dieser Arbeit war es, 1D-Wasserflüsse und Austräge an gelöstem Kohlenstoff für unterschiedlich erodierte Bodenprofile zu quantifizieren. Damit einhergehend wurden Untersuchungen zu hydraulischen Bodeneigenschaften sowie möglichen Veränderungen im System Boden-Pflanze (Wurzeluntersuchungen) durchgeführt. Um derartige Veränderungen zwischen unterschiedlich erodierten Böden beschreiben zu können, wurden Bodenmonolithe in ungestörter Lagerung entnommen und in Lysimeteranlagen installiert. Zudem erfolgte eine Instrumentierung der einzelnen Lysimeter mit verschiedener Sensorik, u.a. um Wassergehalte und Matrixpotentiale zu messen. Für stoffhaushaltliche Untersuchungen wurden darüber hinaus Konzentrationen der gelösten Kohlenstofffraktion in der Bodenlösung in 14-tägigen Intervallen bestimmt. Der Wasserhaushalt von sechs gering bis stark erodierten Parabraunerden unterschied sich im Hinblick auf die bilanzierten Wasserhaushaltskomponenten deutlich. Anhand dieser Ergebnisse liegt die Vermutung nahe, dass die dynamischen Veränderungen im Gefüge- und Profilaufbau (in Abhängigkeit von der Bodenerosion) einen Effekt auf die Wasserbilanzen aufweisen. Über die mehrjährige Messperiode von 2011 bis 2014 konnte für das mit einer stark erodierten Parabraunerde gefüllte Lysimeter ein circa 83 Prozent höherer Abfluss als für das Lysimeter mit einer wenig erodierten Parabraunerde gemessen werden. Somit variierte der Abfluss am unteren Rand in Abhängigkeit zum Erosionsgrad. Neben dem unterschiedlichen Abflussverhalten variierten die Bodenmonolithe innerhalb der Lysimeter ebenfalls in den Evapotranspirations- und Niederschlagsmengen, hervorgerufenen durch die Differenzierung in den Horizontabfolgen, -mächtigkeiten und deren Einfluss auf die bodenhydraulischen Eigenschaften in Abhängigkeit vom Pflanzenbewuchs. Aufgrund der homogen verteilten Stoffkonzentrationen des gelösten organischen und anorganischen Kohlenstoffs am unteren Rand waren Kohlenstoffausträge maßgeblich von den Wasserflüssen abhängig. Als Grundlage der Lysimeter-basierten Wasserhaushaltsanalyse diente ein im Rahmen dieser Dissertation entwickeltes Auswertungsverfahren von kontinuierlichen Gewichtsänderungen unter Berücksichtigung der zeitlichen Autokorrelation. Um eine mögliche Periodizität in zeitlich hochaufgelösten Änderungen des Lysimeterwaagensystems zu ermitteln, fand eine Autokorrelationsfunktion in der Zeitreihenanalyse von vier saisonalen Messzeiträumen Anwendung. Die Ergebnisse der Arbeit deuten darauf hin, dass hochaufgelöste Lysimeterzeitreihen in einem Bereich von circa 30 min bis circa 60 min zeitlich autokorreliert sind. Die ermittelten Autokorrelationslängen bieten wiederum eine Möglichkeit zur Annäherung von (optimalen) Zeitintervallen für die Niederschlagsberechnung, basierend auf Änderungen in den Wiegedaten. Im Vergleich zu einem Kippwaagenregenmesser nahe der Lysimeterstation überstiegen die ermittelten Niederschlagsmengen der Lysimeter in Bodennähe die der in zwei Metern Höhe erfolgten Messung deutlich. Zur Charakterisierung der zeitlichen (Hysterese), als auch räumlichen (erosionsbedingter Pedogenese) Veränderungen der bodenhydraulischen Eigenschaften der Lysimeterböden wurden kontinuierliche Datenreihen des Wassergehaltes und Matrixpotentials analysiert. Die daraus abgeleiteten Wasserretentionskurven wurden in 3 Messtiefen (10, 30, 50 cm) unter Feldbedingungen ausgewertet und mit Labormessungen von Bodenkernen verglichen. Sowohl zwischen den unterschiedlich erodierten Bodenprofilen als auch zwischen den Feld- und Labormessungen waren Unterschiede in den Wasserretentionseigenschaften ersichtlich. Innerhalb eines Jahres (eingeschränkte Benetzbarkeit) sowie zwischen den Jahren (Veränderung der Porenmatrix) zeigten die Ergebnisse zudem eine zeitliche Veränderung der Wasserretentionseigenschaften. Diese dynamische Variabilität der Wasserretention wiederum unterliegt der räumlichen Heterogenität von Bodeneigenschaften, wie Textur und Lagerungsdichte. Für die Interpretation der unterschiedlichen bodenhydraulischen Eigenschaften sowie im Hinblick auf Veränderungen im Wasserhaushalt von ackerbaulich genutzten Lysimetern spielt das System Boden-Pflanze eine bedeutende Rolle. Diesbezüglich wurden Biomasse- und Wurzeluntersuchungen an unterschiedlich erodierten Böden durchgeführt. Die erzielten Ergebnisse verdeutlichen, dass erosionsbedingte Veränderungen im Profilaufbau beziehungsweise Horizonteigenschaften die Wurzelentwicklung beeinflussen können. Zudem stehen die Durchwurzelungsraten an grundwasserbeeinflussten Senkenstandorten in enger Beziehung zum Grundwasserstand (insbesondere im Frühjahr). Die oberirdisch beobachteten Unterschiede in der Biomasse korrelierten stark mit den ermittelten Wurzeldichten (Winterweizen), dies lässt vermuten, dass eine Abschätzung der Wurzelentwicklung mittels oberirdischer Biomasse möglich ist. Zusammenfassend zeigen die Ergebnisse der vorliegenden Lysimeterstudie komplexe Wechselwirkungen zwischen dem pedogenetischen Zustand erodierter Böden und dem Wasserhaushalt, den bodenhydraulischen Eigenschaften sowie der Wurzelentwicklung angebauter Kulturen. Zudem leisten die ermittelten unterschiedlichen Austragsraten an gelöstem Kohlenstoff einen Beitrag zur Abschätzung der langfristigen, in die Tiefe fortschreitenden Entkalkung sowie zur Beantwortung der Fragestellung, ob ackerbaulich genutzte Böden eher als Quell- oder als Senkenterm für Kohlendioxid fungieren. KW - Lysimeter KW - Wasserhaushalt KW - Kohlenstoff KW - lysimeter KW - water balance KW - carbon Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-408561 ER - TY - THES A1 - Hethey, Christoph Philipp T1 - Cell physiology based pharmacodynamic modeling of antimicrobial drug combinations T1 - Zellphysiologie-basierte pharmakodynamische Modellierung von antimikrobiellen Wirkstoffkombinationen N2 - Mathematical models of bacterial growth have been successfully applied to study the relationship between antibiotic drug exposure and the antibacterial effect. Since these models typically lack a representation of cellular processes and cell physiology, the mechanistic integration of drug action is not possible on the cellular level. The cellular mechanisms of drug action, however, are particularly relevant for the prediction, analysis and understanding of interactions between antibiotics. Interactions are also studied experimentally, however, a lacking consent on the experimental protocol hinders direct comparison of results. As a consequence, contradictory classifications as additive, synergistic or antagonistic are reported in literature. In the present thesis we developed a novel mathematical model for bacterial growth that integrates cell-level processes into the population growth level. The scope of the model is to predict bacterial growth under antimicrobial perturbation by multiple antibiotics in vitro. To this end, we combined cell-level data from literature with population growth data for Bacillus subtilis, Escherichia coli and Staphylococcus aureus. The cell-level data described growth-determining characteristics of a reference cell, including the ribosomal concentration and efficiency. The population growth data comprised extensive time-kill curves for clinically relevant antibiotics (tetracycline, chloramphenicol, vancomycin, meropenem, linezolid, including dual combinations). The new cell-level approach allowed for the first time to simultaneously describe single and combined effects of the aforementioned antibiotics for different experimental protocols, in particular different growth phases (lag and exponential phase). Consideration of ribosomal dynamics and persisting sub-populations explained the decreased potency of linezolid on cultures in the lag phase compared to exponential phase cultures. The model captured growth rate dependent killing and auto-inhibition of meropenem and - also for vancomycin exposure - regrowth of the bacterial cultures due to adaptive resistance development. Stochastic interaction surface analysis demonstrated the pronounced antagonism between meropenem and linezolid to be robust against variation in the growth phase and pharmacodynamic endpoint definition, but sensitive to a change in the experimental duration. Furthermore, the developed approach included a detailed representation of the bacterial cell-cycle. We used this representation to describe septation dynamics during the transition of a bacterial culture from the exponential to stationary growth phase. Resulting from a new mechanistic understanding of transition processes, we explained the lag time between the increase in cell number and bacterial biomass during the transition from the lag to exponential growth phase. Furthermore, our model reproduces the increased intracellular RNA mass fraction during long term exposure of bacteria to chloramphenicol. In summary, we contribute a new approach to disentangle the impact of drug effects, assay readout and experimental protocol on antibiotic interactions. In the absence of a consensus on the corresponding experimental protocols, this disentanglement is key to translate information between heterogeneous experiments and also ultimately to the clinical setting. N2 - Der Zusammenhang zwischen antibiotischer Exposition und antibakterieller Wirkung wird derzeitlich erfolgreich mithilfe von mathematischen Bakterienwachstumsmodellen studiert. Üblicherweise ignorieren diese Modelle jedoch die bakterielle Physiologie und Prozesse auf Zellebene. Es folgt, dass das mechanistische Einbinden von Wirkstoffeffekten auf Zellebene nicht möglich ist. Jedoch ist der zelluläre Wirkmechanismus besonders relevant für die Vorhersage, die Analyse und das Verständnis von Antibiotikainteraktionen. Leider gibt es keinen Konsens bezüglich des experimentellen Protokolls, um diese Interaktionen zu untersuchen. Das ist einer der Gründe, warum wir in der Literatur widersprüchliche Klassifizierungen von Antibiotikainteraktionen als additiv, synergistisch oder antagonistisch finden. In der vorliegenden Arbeit entwickelten wir ein neuartiges mathematisches Bakterienwachstumsmodel, welches Prozesse auf Zellebene in das Populationswachstum einbindet. Der Anwendungszweck dieses Models ist die Vorhersage bakteriellen Wachstums unter antimikrobieller Mehrfachexposition in vitro. Um das zu erreichen, kombinierten wir die Zellebene beschreibende Daten aus der Literatur mit Wachstumsdaten für Bacillus subtilis, Escherichia coli und Staphylococcus aureus. Die die Zellebene beschreibenden Daten bezogen sich auf Wachstums-bestimmende Charakteristika einer Referenzzelle, unter anderem auf die ribosomale Konzentration und Effizienz. Die Wachstumsdaten beinhalteten umfangreiche Zeit-Absterbe-Kurven für klinisch relevante Antibiotika (Tetracyclin, Chloramphenicol, Vancomycin, Meropenem, Linezolid) und Zweifachkombinationen aus diesen. Der neue Zellebenen-Ansatz erlaubt es erstmalig, einzelne und kombinierte Effekte der erwähnten Antibiotika für unterschiedliche experimentelle Protokolle gleichzeitig zu beschreiben. Insbesondere beziehen sich diese Unterschiede auf die Wachstumsphasen (Lag oder exponentiellen Phase). Die Berücksichtigung der ribosomalen Konzentration und persistenter Subpopulationen erklärte die verminderte Potenz von Linezolid gegen Kulturen in der Lag Phase im Vergleich zu Kulturen, die sich in der exponentiellen Phase befanden. Das Model erfasst Wachstumsraten-abhängiges Zelltöten und die Selbstinhibierung von Meropenem und - ebenso für Vancomycin - ein Wiederanwachsen der bakteriellen Kulturen aufgrund von adaptiver Resistenzentwicklung. Stochastische Analysen der Interaktionsoberflächen zeigen, dass der ausgeprägte Antagonismus zwischen Meropenem und Linezolid zwar robust gegenüber Variation der Wachstumsphase und der Definition des pharmakodynamischen Endpunktes reagiert, jedoch empfindlich von der Zeitspanne des Experiments beeinflusst wird. Desweiteren enthält der entwickelte Ansatz eine detaillierte Repräsentation des bakteriellen Zellzyklus. Wir nutzten diese Repräsentation, um Septierungsdynamiken während des Übergangs einer bakteriellen Kultur aus der exponentiellen Phase in die stationäre Phase zu beschreiben. Basierend auf einem neugewonnenen mechanistischen Verständnis für diese Übergänge, konnten wir außerdem die zeitliche Verzögerung erklären, die zwischen dem Anstieg der Zellanzahl und der Biomasse während des Übergangs von Lag zu exponentieller Phase auftritt. Außerdem reproduziert unser Modell den erhöhten intrazellulären RNA Massenanteil, der auftritt, wenn Bakterien Chloramphenikol ausgesetzt werden. Zusammenfassend steuern wir einen neuen Ansatz bei, der es erlaubt, die Einflüsse von Wirkstoffeffekten, Endpunktdefinitionen und des experimentellen Protokolls zu entflechten. Da kein Konsens hinsichtlich eines entsprechenden experimentellen Protokolls existiert, ist eine solche Entflechtung der Schlüssel, um Informationen zwischen unterschiedlichen Experimenten - und letztendlich auch in die Klinik - zu transferieren. KW - antibiotic combinations KW - bacterial population growth KW - pharmacodynamics KW - drug drug interactions KW - time-kill curves KW - ribosomal dynamics KW - Antibiotika KW - Wirkstoffinteraktionen KW - Pharmakodynamik KW - mathematische Modellierung KW - mathematical modelling Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-401056 ER - TY - THES A1 - Hochrein, Lena T1 - Development of a new DNA-assembly method and its application for the establishment of a red light-sensing regulation system T1 - Entwicklung einer neuartigen DNS-Assemblierungsmethode und ihre Anwendung für die Etablierung eines Rotlicht-responsiven Regulierungssystems N2 - In der hier vorgelegten Doktorarbeit wurde eine Strategie zur schnellen, einfachen und zuverlässigen Assemblierung von DNS-Fragmenten, genannt AssemblX, entwickelt. Diese kann genutzt werden, um komplexe DNS-Konstrukte, wie beispielsweise komplette Biosynthesewege, aufzubauen. Dies dient der Produktion von technisch oder medizinisch relevanten Produkten in biotechnologisch nutzbaren Organismen. Die Vorteile der Klonierungsstrategie liegen in der Schnelligkeit der Klonierung, der Flexibilität bezüglich des Wirtsorganismus, sowie der hohen Effektivität, die durch gezielte Optimierung erreicht wurde. Die entwickelte Technik erlaubt die nahtlose Assemblierung von Genfragmenten und bietet eine Komplettlösung von der Software-gestützten Planung bis zur Fertigstellung von DNS-Konstrukten, welche die Größe von Mini-Chromosomen erreichen können. Mit Hilfe der oben beschriebenen AssemblX Strategie wurde eine optogenetische Plattform für die Bäckerhefe Saccharomyces cerevisiae etabliert. Diese besteht aus einem Rotlicht-sensitiven Photorezeptor und seinem interagierenden Partner aus Arabidopsis thaliana, welche in lichtabhängiger Weise miteinander agieren. Diese Interaktion wurde genutzt, um zwei Rotlicht-aktivierbare Proteine zu erstellen: Einen Transkriptionsfaktor, der nach Applikation eines Lichtpulses die Produktion eines frei wählbaren Proteins stimuliert, sowie eine Cre Rekombinase, die ebenfalls nach Bestrahlung mit einer bestimmten Wellenlänge die zufallsbasierte Reorganisation bestimmter DNS-Konstrukte ermöglicht. Zusammenfassend wurden damit drei Werkzeuge für die synthetische Biologie etabliert. Diese ermöglichen den Aufbau von komplexen Biosynthesewegen, deren Licht-abhängige Regulation, sowie die zufallsbasierte Rekombination zu Optimierungszwecken. N2 - With Saccharomyces cerevisiae being a commonly used host organism for synthetic biology and biotechnology approaches, the work presented here aims at the development of novel tools to improve and facilitate pathway engineering and heterologous protein production in yeast. Initially, the multi-part assembly strategy AssemblX was established, which allows the fast, user-friendly and highly efficient construction of up to 25 units, e.g. genes, into a single DNA construct. To speed up complex assembly projects, starting from sub-gene fragments and resulting in mini-chromosome sized constructs, AssemblX follows a level-based approach: Level 0 stands for the assembly of genes from multiple sub-gene fragments; Level 1 for the combination of up to five Level 0 units into one Level 1 module; Level 2 for linkages of up to five Level 1 modules into one Level 2 module. This way, all Level 0 and subsequently all Level 1 assemblies can be carried out simultaneously. Individually planned, overlap-based Level 0 assemblies enable scar-free and sequence-independent assemblies of transcriptional units, without limitations in fragment number, size or content. Level 1 and Level 2 assemblies, which are carried out via predefined, computationally optimized homology regions, follow a standardized, highly efficient and PCR-free scheme. AssemblX follows a virtually sequence-independent scheme with no need for time-consuming domestication of assembly parts. To minimize the risk of human error and to facilitate the planning of assembly projects, especially for individually designed Level 0 constructs, the whole AssemblX process is accompanied by a user-friendly webtool. This webtool provides the user with an easy-to-use operating surface and returns a bench-protocol including all cloning steps. The efficiency of the assembly process is further boosted through the implementation of different features, e.g. ccdB counter selection and marker switching/reconstitution. Due to the design of homology regions and vector backbones the user can flexibly choose between various overlap-based cloning methods, enabling cost-efficient assemblies which can be carried out either in E. coli or yeast. Protein production in yeast is additionally supported by a characterized library of 40 constitutive promoters, fully integrated into the AssemblX toolbox. This provides the user with a starting point for protein balancing and pathway engineering. Furthermore, the final assembly cassette can be subcloned into any vector, giving the user the flexibility to transfer the individual construct into any host organism different from yeast. As successful production of heterologous compounds generally requires a precise adjustment of protein levels or even manipulation of the host genome to e.g. inhibit unwanted feedback regulations, the optogenetic transcriptional regulation tool PhiReX was designed. In recent years, light induction was reported to enable easy, reversible, fast, non-toxic and nearly gratuitous regulation, thereby providing manifold advantages compared to conventional chemical inducers. The optogenetic interface established in this study is based on the photoreceptor PhyB and its interacting protein PIF3. Both proteins, derived from Arabidopsis thaliana, dimerize in a red/far-red light-responsive manner. This interaction depends on a chromophore, naturally not available in yeast. By fusing split proteins to both components of the optical dimerizer, active enzymes can be reconstituted in a light-dependent manner. For the construction of the red/far-red light sensing gene expression system PhiReX, a customizable synTALE-DNA binding domain was fused to PhyB, and a VP64 activation domain to PIF3. The synTALE-based transcription factor allows programmable targeting of any desired promoter region. The first, plasmid-based PhiReX version mediates chromophore- and light-dependent expression of the reporter gene, but required further optimization regarding its robustness, basal expression and maximum output. This was achieved by genome-integration of the optical regulator pair, by cloning the reporter cassette on a high-copy plasmid and by additional molecular modifications of the fusion proteins regarding their cellular localization. In combination, this results in a robust and efficient activation of cells over an incubation time of at least 48 h. Finally, to boost the potential of PhiReX for biotechnological applications, yeast was engineered to produce the chromophore. This overcomes the need to supply the expensive and photo-labile compound exogenously. The expression output mediated through PhiReX is comparable to the strong constitutive yeast TDH3 promoter and - in the experiments described here - clearly exceeds the commonly used galactose inducible GAL1 promoter. The fast-developing field of synthetic biology enables the construction of complete synthetic genomes. The upcoming Synthetic Yeast Sc2.0 Project is currently underway to redesign and synthesize the S. cerevisiae genome. As a prerequisite for the so-called “SCRaMbLE” system, all Sc2.0 chromosomes incorporate symmetrical target sites for Cre recombinase (loxPsym sites), enabling rearrangement of the yeast genome after induction of Cre with the toxic hormonal substance beta-estradiol. To overcome the safety concern linked to the use of beta-estradiol, a red light-inducible Cre recombinase, dubbed L-SCRaMbLE, was established in this study. L-SCRaMbLE was demonstrated to allow a time- and chromophore-dependent recombination with reliable off-states when applied to a plasmid containing four genes of the beta-carotene pathway, each flanked with loxPsym sites. When directly compared to the original induction system, L-SCRaMbLE generates a larger variety of recombination events and lower basal activity. In conclusion, L-SCRaMbLE provides a promising and powerful tool for genome rearrangement. The three tools developed in this study provide so far unmatched possibilities to tackle complex synthetic biology projects in yeast by addressing three different stages: fast and reliable biosynthetic pathway assembly; highly specific, orthogonal gene regulation; and tightly controlled synthetic evolution of loxPsym-containing DNA constructs. KW - synthetic biology KW - pathway engineering KW - DNA assembly KW - transcription factor KW - Cre recombinase KW - optogenetics KW - synthetische Biologie KW - Optimierung von Biosynthesewegen KW - DNS Assemblierung KW - Transkriptionsfaktor KW - Cre Rekombinase KW - Optogenetik Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-404441 ER - TY - THES A1 - Hoffmann, Lars T1 - Lehrkräfte als Diagnostikerinnen und Diagnostiker T1 - Teachers as diagnosticians BT - Untersuchungen zu ausgewählten Tätigkeiten von Grundschullehrerinnen und Grundschullehrern im Bereich der pädagogisch-psychologischen Diagnostik BT - empirical studies on selected tasks of elementary school teachers in the domain of educational-psychological diagnostics N2 - Im Fokus der kumulativen Dissertationsschrift stehen Grundschullehrerinnen und Grundschullehrer in ihrer Rolle als Diagnostikerinnen und Diagnostiker. Exemplarisch werden mit der Einschätzung von Aufgabenschwierigkeiten und der Feststellung von Sprachförderbedarf zwei diagnostische Herausforderungen untersucht, die Lehrkräfte an Grundschulen bewältigen müssen. Die vorliegende Arbeit umfasst drei empirische Teilstudien, die in einem Rahmentext integriert sind, in dem zunächst die theoretischen Hintergründe und die empirische Befundlage erläutert werden. Hierbei wird auf die diagnostische Kompetenz von Lehrkräften bzw. die Genauigkeit von Lehrerurteilen eingegangen. Ferner wird der Einsatz standardisierter Testinstrumente als wichtiger Bestandteil des diagnostischen Aufgabenfeldes von Lehrkräften charakterisiert. Außerdem werden zentrale Aspekte der Sprachdiagnostik in der Grundschule dargestellt. In Teilstudie 1 (Hoffmann & Böhme, 2014b) wird der Frage nachgegangen, wie akkurat Grundschullehrerinnen und -lehrer die Schwierigkeit von Deutsch- und Mathematikaufgaben einschätzen. Darüber hinaus wird untersucht, welche Faktoren mit der Über- oder Unterschätzung der Schwierigkeit von Aufgaben zusammenhängen. In Teilstudie 2 (Hoffmann & Böhme, 2017) wird geprüft, inwiefern die Klassifikationsgüte von Entschei¬dungen zum sprachlichen Förderbedarf mit den hierfür genutzten diagnostischen Informationsquellen kovariiert. Der Fokus liegt hierbei vor allem auf der Untersuchung von Effekten des Einsatzes von sprachdiagnostischen Verfahren. Teilstudie 3 (Hoffmann, Böhme & Stanat, 2017) untersucht schließlich die Frage, welche diagnostischen Verfahren gegenwärtig bundesweit an den Grundschulen zur Feststellung sprachlichen Förderbedarfs genutzt werden und ob diese Verfahren etwa testtheoretischen Gütekriterien genügen. Die zentralen Ergebnisse der Teilstudien werden im Rahmentext zusammen¬gefasst und studienübergreifend diskutiert. Hierbei wird auch auf methodische Stärken und Schwächen der drei Beiträge sowie auf Implikationen für die zukünftige Forschung und die schulische Praxis hingewiesen. N2 - The cumulative doctoral thesis focusses on elementary school teachers and their role as diagnosticians. Two diagnostic challenges that teachers in elementary schools typically have to manage are investigated: judging task difficulty and identifying children with a particular need for language support. The present thesis consists of three empirical articles that are embedded in a framing text which at first outlines theoretical backgrounds and empirical findings and then elaborates on teachers’ diagnostic skills and on the accuracy of teachers’ judgments. Furthermore, the application of standardized tests is characterized as an important element of teachers’ field of work. Additionally, central aspects of language diagnostics in elementary schools are illustrated. The first article (Hoffmann & Böhme, 2014b) investigates the accuracy of elementary school teachers’ difficulty judgments of German language and mathematics tasks. The article furthermore addresses the question of what factors are correlated with the over- and underestimation of task difficulty. The second article (Hoffmann & Böhme, 2017) examines whether the classification accuracy of decisions on the need for language support covaries with the use of specific diagnostic information sources. The article puts a special focus on effects of the administration of particular diagnostic instruments (e. g., tests). The third article (Hoffmann, Böhme & Stanat, 2017) finally addresses the question what diagnostic instruments are currently used in elementary schools throughout Germany to identify a need for language support and whether these instruments (for example) match test theoretical quality criteria. Finally, the central results of the three articles are summarized and reflected in an overall discussion that outlines methodical strengths and weaknesses of each study as well as implications for future research and practical implications for schools. KW - diagnostische Kompetenz KW - Urteilsgenauigkeit KW - Sprachdiagnostik KW - sprachdiagnostische Verfahren KW - Klassifikationsgüte KW - diagnostic competence KW - teacher judgment accuracy KW - language diagnostics KW - diagnostic instruments for language assessment KW - classification accuracy Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-404584 ER - TY - THES A1 - Holzgrefe-Lang, Julia T1 - Prosodic phrase boundary perception in adults and infants T1 - Die Wahrnehmung prosodischer Phrasengrenzen bei Erwachsenen und Säuglingen BT - what the brain reveals about contextual influence and the impact of prosodic cues N2 - Prosody is a rich source of information that heavily supports spoken language comprehension. In particular, prosodic phrase boundaries divide the continuous speech stream into chunks reflecting the semantic and syntactic structure of an utterance. This chunking or prosodic phrasing plays a critical role in both spoken language processing and language acquisition. Aiming at a better understanding of the underlying processing mechanisms and their acquisition, the present work investigates factors that influence prosodic phrase boundary perception in adults and infants. Using the event-related potential (ERP) technique, three experimental studies examined the role of prosodic context (i.e., phrase length) in German phrase boundary perception and of the main prosodic boundary cues, namely pitch change, final lengthening, and pause. With regard to the boundary cues, the dissertation focused on the questions which cues or cue combination are essential for the perception of a prosodic boundary and on whether and how this cue weighting develops during infancy. Using ERPs is advantageous because the technique captures the immediate impact of (linguistic) information during on-line processing. Moreover, as it can be applied independently of specific task demands or an overt response performance, it can be used with both infants and adults. ERPs are particularly suitable to study the time course and underlying mechanisms of boundary perception, because a specific ERP component, the Closure Positive Shift (CPS) is well established as neuro-physiological indicator of prosodic boundary perception in adults. The results of the three experimental studies first underpin that the prosodic context plays an immediate role in the processing of prosodic boundary information. Moreover, the second study reveals that adult listeners perceive a prosodic boundary also on the basis of a sub-set of the boundary cues available in the speech signal. Both ERP and simultaneously collected behavioral data (i.e., prosodic judgements) suggest that the combination of pitch change and final lengthening triggers boundary perception; however, when presented as single cues, neither pitch change nor final lengthening were sufficient. Finally, testing six- and eight-month-old infants shows that the early sensitivity for prosodic information is reflected in a brain response resembling the adult CPS. For both age groups, brain responses to prosodic boundaries cued by pitch change and final lengthening revealed a positivity that can be interpreted as a CPS-like infant ERP component. In contrast, but comparable to the adults’ response pattern, pitch change as a single cue does not provoke an infant CPS. These results show that infant phrase boundary perception is not exclusively based on pause detection and hint at an early ability to exploit subtle, relational prosodic cues in speech perception. N2 - Die Wahrnehmung prosodischer Phrasengrenzen spielt eine zentrale Rolle sowohl im frühen Spracherwerb als auch bei der auditiven Sprachperzeption: Prosodische Grenzmarkierungen sind insbesondere relevant, da sie den Sprachstrom gliedern (so genanntes chunking), dabei die syntaktische Struktur einer Äußerung widerspiegeln und zusammenhängende Sinneinheiten erkennbar machen. Um die der Verarbeitung prosodischer Information zugrunde liegenden Mechanismen und deren Erwerb besser charakterisieren zu können, befasst die vorliegende Dissertation mit Faktoren, die die Wahrnehmung prosodischer Grenzmarkierungen bei Erwachsenen und Säuglingen beeinflussen. Mithilfe der Erhebung Ereigniskorrelierter Hirnpotentiale (EKPs) wurde untersucht, welche Rolle der prosodische Kontext (hier: die Phrasenlänge) sowie die an Phrasengrenzen auftretenden Hinweisreize (sogenannte prosodische Cues) bei der Wahrnehmung prosodischer Grenzen im Deutschen spielen. Die untersuchten prosodischen Cues umfassen das Auftreten von Tonhöhenveränderung (pitch change) und finaler Dehnung (final lengthening) sowie Pausensetzung (pause). Es wurde hierbei der Frage nachgegangen, welche Cues oder Cue-Kombinationen für die Wahrnehmung einer Phrasengrenze relevant sind und ob bzw. wie sich diese Gewichtung im Säuglingsalter entwickelt. EKPs sind insbesondere geeignet, da sie als on-line Methode die unmittelbare Integration prosodischer Information beim Sprachverstehen erfassen und sowohl bei Erwachsenen als auch bei Säuglingen angewendet werden können. Zudem gibt es mit dem closure positive shift (CPS) eine als Korrelat der Wahrnehmung größerer prosodischer Grenzen etablierte EKP-Komponente. Die Ergebnisse der drei experimentellen Studien untermauern, dass der Äußerungskontext eine unmittelbare Rolle bei der Verarbeitung von prosodischen Grenzmarkierungen spielt. Darüber hinaus konnte gezeigt werden, dass erwachsene Hörer eine prosodische Grenze auch basierend auf einem Sub-Set der möglichen, im akustischen Signal verfügbaren, prosodischen Cues wahrnehmen: Die Kombination von Tonhöhenveränderung und finaler Dehnung ist ausreichend, um die Wahrnehmung einer Phrasengrenze zu evozieren; als alleinige Cues sind jedoch weder Tonhöhenveränderung noch finale Dehnung hinreichend. Dies offenbarte sich sowohl im Ausbleiben des CPS als auch in simultan erhobenen Verhaltensdaten (Beurteilung der prosodischen Struktur). Schließlich ergab die Untersuchung sechs- und achtmonatiger Säuglinge, dass sich die frühe Sensitivität für prosodische Informationen in einem neurophysiologischen Korrelat widerspiegelt, welches dem CPS bei Erwachsenen gleicht. Die EKP-Daten zeigten, dass sowohl sechs- als auch achtmonatige Säuglinge prosodische Phrasengrenzen anhand der Kombination von Tonhöhenveränderung und finaler Dehnung wahrnehmen, wohingegen die Tonhöhenveränderung allein auch bei Säuglingen keinen CPS auslöst. Bereits in diesem frühen Alter ist somit die Pause als Grenzmarkierung nicht zwingend erforderlich. KW - speech perception KW - language acquisition KW - prosody KW - event-related potentials (ERP) KW - prosodic phrase boundaries KW - prosodic boundary cues KW - Closure Positive Shift (CPS) KW - infants KW - Sprachwahrnehmung KW - Spracherwerb KW - Prosodie KW - Ereigniskorrelierte Hirnpotentiale (EKP) KW - prosodische Phrasengrenzen KW - prosodische Grenzmarkierungen KW - Closure Positive Shift (CPS) KW - Säuglinge Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-405943 ER - TY - THES A1 - Håkansson, Nils T1 - A Dark Matter line search using 3D-modeling of Cherenkov showers below 10 TeV with VERITAS T1 - Die Suche nach Dunkler Materie mit VERITAS durch Liniensuche und 3D Modellierung von Cherenkov-Schauern unter 10 TeV N2 - Dark matter, DM, has not yet been directly observed, but it has a very solid theoretical basis. There are observations that provide indirect evidence, like galactic rotation curves that show that the galaxies are rotating too fast to keep their constituent parts, and galaxy clusters that bends the light coming from behind-lying galaxies more than expected with respect to the mass that can be calculated from what can be visibly seen. These observations, among many others, can be explained with theories that include DM. The missing piece is to detect something that can exclusively be explained by DM. Direct observation in a particle accelerator is one way and indirect detection using telescopes is another. This thesis is focused on the latter method. The Very Energetic Radiation Imaging Telescope Array System, V ERITAS, is a telescope array that detects Cherenkov radiation. Theory predicts that DM particles annihilate into, e.g., a γγ pair and create a distinctive energy spectrum when detected by such telescopes, e.i., a monoenergetic line at the same energy as the particle mass. This so called ”smoking-gun” signature is sought with a sliding window line search within the sub-range ∼ 0.3 − 10 TeV of the VERITAS energy range, ∼ 0.01 − 30 TeV. Standard analysis within the VERITAS collaboration uses Hillas analysis and look-up tables, acquired by analysing particle simulations, to calculate the energy of the particle causing the Cherenkov shower. In this thesis, an improved analysis method has been used. Modelling each shower as a 3Dgaussian should increase the energy recreation quality. Five dwarf spheroidal galaxies were chosen as targets with a total of ∼ 224 hours of data. The targets were analysed individually and stacked. Particle simulations were based on two simulation packages, CARE and GrISU. Improvements have been made to the energy resolution and bias correction, up to a few percent each, in comparison to standard analysis. Nevertheless, no line with a relevant significance has been detected. The most promising line is at an energy of ∼ 422 GeV with an upper limit cross section of 8.10 · 10^−24 cm^3 s^−1 and a significance of ∼ 2.73 σ, before trials correction and ∼ 1.56 σ after. Upper limit cross sections have also been calculated for the γγ annihilation process and four other outcomes. The limits are in line with current limits using other methods, from ∼ 8.56 · 10^−26 − 6.61 · 10^−23 cm^3s^−1. Future larger telescope arrays, like the upcoming Cherenkov Telescope Array, CTA, will provide better results with the help of this analysis method. N2 - Dunkle Materie, DM, wurde noch nicht direkt beobachtet, aber die Theorie ist sehr solide. Es gibt Beobachtungen, die als indirekte Beweise gelten, z.B. galaktische Rotationskurven, die besagen, dass Galaxien zu schnell rotieren um ohne eine zusätzliche Massenkomponente zusammenhalten zu können, oder elliptische Zwerggalaxien, die massereicher sind als die sichtbare Materie vermuten lässt. Diese Beobachtungen könnten z.B. mit dem Vorhandensein von DM erkärt werden, aber bis jetzt fehlt die Beobachtung eines Phänomens, das ausschließlich durch DM erklärt werden kann. Eine Möglichkeit wäre die Beobachtung einer speziellen Energiesignatur durch Teleskope, welche das Thema der vorliegenden Arbeit ist. Das Very Energetic Radiation Imaging Telescope Array System, VERITAS, ist ein Teleskoparray für Cherenkov-Strahlung. Entsprechend der Theorie sollten Teilchen dunkler Materie annihilieren und z.B. ein γγ Paar bilden. Dieses sollte im Teleskop eine spezielle Energiesignatur hinterlassen, nämlich eine monoenergetische Linie bei einer Energie, die der Teilchenmasse entspricht. Diese ”smoking-gun” Signatur wird mit einer sliding window Liniensuche bei Energien < 10TeV gesucht. In der VERITAS Kollaboration werden standardm¨aßig eine Hillas-Analyse und Nachschlagetabellen aus Teilchensimulationen verwendet, um die Energie des Teilchens zu berechnen, das den Cherenkov-Schauer verursacht hat. Hier wird eine verbesserte Analysemethode verwendet. Dabei wird jeder Schauer als 3D-Gaußkurve modelliert, was die Qualität der Energierekonstruktion erheblich verbessern sollte. Dafur wurden funf elliptische Zwerggalaxien beobachtet und einzeln sowie insgesamt analysiert, insgesamt ~ 224 h Beobachtungszeit. Dabei werden zwei verschiedene Teilchensimulationsprogramme verwendet, CARE und GrISU. In dieser Arbeit wurde die Energieauflösung und die Bias-Korrektur um einige Prozent gegen¨uber der Standardanalyse verbessert. Es wurde jedoch keine signifikante Linie detektiert. Die vielversprechendste Linie befindet sich bei einer Energie von ~ 422GeV und hat einen Querschnitt von 8.10·10^−24 cm^3 s^−1 und ein Signifikanzlevel von ~ 2.73 σ bzw. 1.56σ vor bzw. nach statistischer Korrektur. Außerdem wurden obere Grenzwerte fur verschiedene Annihilierungsprozesse berechnet. Sie stimmen mit anderen aktuellen Grenzwerten überein (~ 8.56 · 10^−26 − 6.61 · 10^−23 cm^3s^−1). Zukünftig werden mehr Beobachtungsdaten und neue Teleskoparrays, wie das Cherenkov Telescope Array, CTA, mit Hilfe dieser Analysemethode bessere Ergebnisse ermöglichen. KW - Dark Matter KW - line search KW - VERITAS KW - 3D-modeling KW - Cherenkov showers KW - Dunkler Materie KW - Line Suche KW - VERITAS KW - 3D Modellierung KW - Cherenkov-Schauern Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-397670 ER - TY - THES A1 - Jennerich, Christian T1 - Lebensweltliche Erfahrungen und kollektive Zuschreibungen bei Bildungsausländern T1 - Life-world experiences and labelling processes of Bildungsausländer (non- national students who acquired their higher education entrance qualifications outside Germany) BT - Eine empirische Studie zu Formen sozialer Identitätsbildung BT - An empirical study on social identity formation N2 - In der vorliegenden Dissertation werden lebensweltliche Erfahrungszusammenhänge in 128 Aufsätzen ausländischer Studierender, die oft auch als Bildungsausländer bezeichnet werden, und grundsätzliche Prozesse bei der Herausbildung sowie Veränderung kollektiver Zuschreibungen im Rahmen der sozialen Identitätsbildung hermeneutisch untersucht. Mit Hilfe der nach der empirischen Methode der Grounded Theory kodierten Interpretationsergebnisse werden in der qualitativen Längsschnittstudie Vergleiche angestellt, sowohl fallintern als auch fallübergreifend, um Muster zu entdecken, Typologien zu konstruieren und die jeweiligen (kulturellen) Horizonte in den Aufsätzen zu verallgemeinern. Neben der Grounded Theory bildet die Theorie der „alltäglichen Lebenswelt“ (Alfred Schütz) eine Basis der Herangehensweise an die Untersuchung der Aufsätze. In diesem Kontext wird ausgehend von der graduellen Unterteilung der Fremdheit in alltägliche, strukturelle und radikale Fremdheit sowie ausgehend von Goffmans Identitätskonzept der Frage nachgegangen, inwieweit sich in den untersuchten Texten die Bildung und Veränderung sozialer Identitäten feststellen lassen. Dabei werden Akkulturationsprozesse und Prozesse der Selbstidentifikation, bezüglich einer angenommenen Gemeinschaft, analysiert, die von kollektiven (kulturellen) Schemata bestimmt sind. In diesem Zusammenhang kann die vorliegende Dissertation zeigen, dass sich bestimmte kulturelle Schemata in der Auseinandersetzung mit dem vormals neuen Leben in Deutschland herausgebildet haben und bestimmte ältere Erfahrungen immer wieder zur Bestätigung dieser Bilder bzw. Erfahrungsschemata herangezogen und wie der Abdruck in Gestein fossiliert werden. N2 - Contexts of life-world experiences are analysed hermeneutically from 128 essays of foreign students, often classed as Bildungsausländer, in this dissertation survey. The focus is on basic processes in the field of development and change of social identity formation. This qualitative longitudinal study uses coded interpretation results – case internally or comprising several cases – and follows the Grounded Theory as an empirical method in order to discover patterns, construct typologies and to generalize the respective (cultural) horizon in the essays. Besides Grounded Theory, the theory ’der alltäglichen Lebenswelt’ (Alfred Schütz) serves as a reference point for the survey. The question is in this context - proceeding from the classifications of everyday, structural and radical otherness and from Goffman`s concept of identity – is to what extent one can prove the formation and change of social identities in the analysed texts. Upon this premise, accuIturation processes and processes of self-identification, in relation to an imagined community, are analysed. These processes are determined by collective (cultural) schemas and this dissertation shows that particular cultural schemas are developed in dealing with the (previously new) life in Germany. Specific older experiences are taken to uphold these images or schemas of experiences, fossilized like an imprint in stone. KW - lebensweltliche Erfahrungen KW - kollektive Zuschreibungen KW - Bildungsausländer KW - ausländische Studierende in Deutschland KW - Formen sozialer Identitätsbildung KW - qualititative Studie KW - non-national students KW - social identity formation KW - foreign students in Germany KW - labelling processes KW - life-world experiences KW - qualitative study Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398991 SN - 978-3-86956-409-8 PB - Universitätsverlag Potsdam ER - TY - THES A1 - John, Daniela T1 - Herstellung anisotroper Kolloide mittels templatgesteuerter Assemblierung und Kontaktdruckverfahren T1 - Generation of anisotropic colloids via templated-assisted assembly and contact printing N2 - Diese Arbeit befasste sich mit neuen Konzepten zur Darstellung anisotroper Partikelsysteme durch Anordnung von funktionalisierten Partikeln unter Zuhilfenahme etablierter Methoden wie der templatgestützten Assemblierung von Partikeln und dem Mikrokontaktdruck. Das erste Teilprojekt beschäftigte sich mit der kontrollierten Herstellung von Faltenstrukturen im Mikro- bis Nanometerbereich. Die Faltenstrukturen entstehen durch die Relaxation eines Systems bestehend aus zwei übereinander liegender Schichten unterschiedlicher Elastizität. In diesem Fall wurden Falten auf einem elastischen PDMS-Substrat durch Generierung einer Oxidschicht auf der Substratoberfläche mittels Plasmabehandlung erzeugt. Die Dicke der Oxidschicht, die über verschiedene Parameter wie Behandlungszeit, Prozessleistung, Partialdruck des plasmaaktiven Gases, Vernetzungsgrad, Deformation sowie Substratdicke einstellbar war, bestimmte Wellenlänge und Amplitude der Falten. Das zweite Teilprojekt hatte die Darstellung komplexer, kolloidaler Strukturen auf Basis supramolekularer Wechselwirkungen zum Ziel. Dazu sollte vor allem die templatgestützte Assemblierung von Partikeln sowohl an fest-flüssig als auch flüssig-flüssig Grenzflächen genutzt werden. Für Erstere sollten die in Teilprojekt 1 hergestellten Faltenstrukturen als Templat, für Letztere Pickering-Emulsionen zur Anwendung kommen. Im ersten Fall wurden verschiedene, modifizierte Silicapartikel und Magnetitnanopartikel, deren Größe und Oberflächenfunktionalität (Cyclodextrin-, Azobenzol- und Arylazopyrazolgruppen) variierte, in Faltenstrukturen angeordnet. Die Anordnung hing dabei nicht nur vom gewählten Verfahren, sondern auch von Faktoren wie der Partikelkonzentration, der Oberflächenladung oder dem Größenverhältnis der Partikel zur Faltengeometrie ab. Die Kombination von Cyclodextrin (CD)- und Arylazopyrazol-modifizierten Partikeln ermöglichte, auf Basis einer Wirt-Gast-Wechselwirkung zwischen den Partikeltypen und einer templatgesteuerten Anordnung, die Bildung komplexer und strukturierter Formen in der Größenordnung mehrerer Mikrometer. Dieses System kann einerseits als Grundlage für die Herstellung verschiedener Janus-Partikel herangezogen werden, andererseits stellt die gerichtete Vernetzung zweier Partikelsysteme zu größeren Aggregaten den Grundstein für neuartige, funktionale Materialien dar. Neben der Anordnung an fest-flüssig Grenzflächen konnte außerdem nachgewiesen werden, dass Azobenzol-funktionalisierte Silicapartikel in der Lage sind, Pickering-Emulsionen über mehrere Monate zu stabilisieren. Die Stabilität und Größe der Emulsionsphase kann über Parameter, wie das Volumenverhältnis und die Konzentration, gesteuert werden. CD-funktionalisierte Silicapartikel besaßen dagegen keine Grenzflächenaktivität, während es CD-basierten Polymeren wiederum möglich war, durch die Ausbildung von Einschlusskomplexen mit den hydrophoben Molekülen der Ölphase stabile Emulsionen zu bilden. Dagegen zeigte die Kombination zwei verschiedener Partikelsysteme keinen oder einen destabilisierenden Effekt bezüglich der Ausbildung von Emulsionen. Im letzten Teilprojekt wurde die Herstellung multivalenter Silicapartikel mittels Mikrokontaktdruck untersucht. Die Faltenstrukturen wurden dabei als Stempel verwendet, wodurch es möglich war, die Patch-Geometrie über die Wellenlänge der Faltenstrukturen zu steuern. Als Tinte diente das positiv geladene Polyelektrolyt Polyethylenimin (PEI), welches über elektrostatische Wechselwirkungen auf unmodifizierten Silicapartikeln haftet. Im Gegensatz zum Drucken mit flachen Stempeln fiel dabei zunächst auf, dass sich die Tinte bei den Faltenstrukturen nicht gleichmäßig über die gesamte Substratfläche verteilt, sondern hauptsächlich in den Faltentälern vorlag. Dadurch handelte es sich bei dem Druckprozess letztlich nicht mehr um ein klassisches Mikrokontaktdruckverfahren, sondern um ein Tiefdruckverfahren. Über das Tiefdruckverfahren war es dann aber möglich, sowohl eine als auch beide Partikelhemisphären gleichzeitig und mit verschiedenen Funktionalitäten zu modifizieren und somit multivalente Silicapartikel zu generieren. In Abhängigkeit der Wellenlänge der Falten konnten auf einer Partikelhemisphäre zwei bis acht Patches abgebildet werden. Für die Patch-Geometrie, sprich Größe und Form der Patches, spielten zudem die Konzentration der Tinte auf dem Stempel, das Lösungsmittel zum Ablösen der Partikel nach dem Drucken sowie die Stempelhärte eine wichtige Rolle. Da die Stempelhärte aufgrund der variierenden Dicke der Oxidschicht bei verschiedenen Wellenlängen nicht kontant ist, wurden für den Druckprozess meist Abgüsse der Faltensubstrate verwendet. Auf diese Weise war auch die Vergleichbarkeit bei variierender Wellenlänge gewährleistet. Neben dem erfolgreichen Nachweis der Modifikation mittels Tiefdruckverfahren konnte auch gezeigt werden, dass über die Komplexierung mit PEI negativ geladene Nanopartikel auf die Partikeloberfläche aufgebracht werden können. N2 - This work dealt with new concepts of formation of anisotropic particle systems by using well-known methods such as template-assisted self-assembly of particles and microcontact printing. The first part paid attention to the controlled preparation of wrinkles in a micro or nanometer range. Wrinkles result from the relaxation of a system consisting of two layers with different elasticity. In this case, wrinkles were generated on top of an elastic PDMS substrate via plasma oxidation to a rigid surface. The thickness of the oxidized layer determined wavelength and amplitude of the wrinkles and could be varied by different parameters: time, power, partial pressure of plasma active gas, level of cross-linking, displacement and thickness of the PDMS substrate. The aim of the second part was the generation of complex, colloidal structures based on supramolecular interactions. For this, the template-assisted self-assembly of particles at solid-liquid and liquid-liquid interfaces should be used. Concerning the assembly at solid-liquid interfaces, we utilized the wrinkle structures generated in part 1 and, concerning the assembly at liquid-liquid interfaces, Pickering emulsions were chosen. In the first case, modified particles (silica and magnetite), that size and functionality (cyclodextrine, azobenzene and arylazopyrazol groups) varied, were assembled in wrinkle structures. The assembly depended not only on the chosen method, concentration, surface charge and size ratio between wrinkles and particles. The combination of cyclodextrine (CD)- and aryazopyralzol-modified particles enabled to build complex and regular structures based on supramolecular interactions between the two particles types and template-assisted self-assembly of these particles. On the one hand, this system generated Janus particles and on the other hand, the controlled agglomeration of two different particle types laid the foundation of new functional materials. Beside the assembly at solid-liquid interfaces, azobenzene-functionalized particles could be used for stabilizing Pickering emulsions. Formed emulsions were stable over a period of several months while parameters such as volume ratio and concentration influenced this stability as well as the volume of the emulsion phase. However, CD-functionalized silica particles possessed no interfacial activity to stabilize emulsions, whereas CD-based polymers could stabilize emulsions by forming inclusion complexes with hydrophobic molecules of the oil phase. On the other hand, the combination of CD-based and azobenzene-functionalized particle systems showed no or a destabilizing effect with regard to the formation of emulsions. In the last part, the generation of multivalent silica particles using a microcontact printing technique were analyzed. Wrinkles were used as stamps which induced the possibility to control the patch geometry by varying their wavelength. The positively charged polyelectrolyte (PEI) served as ink because it can stick to the silica surface by electrostatic interactions. Having a closer look at the printing process, a deviation to printing with flat stamps was found. In contrast to printing with flat stamps, ink solution, in case of wrinkles structures, did not spread over the whole substrate equally but laid mainly in the wrinkle groves. Due to this, the printing process is no longer a classical microcontact printing process but an intaglio printing process. Using the intaglio printing process, it was possible to modify both hemispheres of the particles at the same time and with different functionalities as well as generate multivalent silica particles. Depending on the wrinkle wavelength, two to eight patches per hemisphere could be achieved. The geometry of patches, means their size and arrangement, depended on the concentration of the ink on the stamps, the solvent to removing the particles from the stamps and the hardness of the stamps. Due to a varied thickness of the oxidized layer at different wrinkle wavelengths, the hardness of the stamps is not constant; that is why, casted wrinkles were utilized for the printing process. In this way, we ensure the comparability of printing using different wavelengths. Beside the successful proof of modification using intaglio printing, we could also show that negatively charged nanoparticles could be applied on the particle surface by embedding them into PEI before. KW - Faltenstrukturen KW - Anisotrope Kolloide KW - Kontaktdruck KW - Templatgesteuerte Assemblierung KW - wrinkles KW - patchy particles KW - particle assembly KW - printing Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398270 ER - TY - THES A1 - Jordan, Thomas T1 - CxNy-materials from supramolecular precursors for “All-Carbon” composite materials T1 - CxNy-Materialien aus supramolekularen Precursoren für „All-Carbon“-Komposit-Materialien N2 - Among modern functional materials, the class of nitrogen-containing carbons combines non-toxicity and sustainability with outstanding properties. The versatility of this materials class is based on the opportunity to tune electronic and catalytic properties via the nitrogen content and –motifs: This ranges from the electronically conducting N-doped carbon, where few carbon atoms in the graphitic lattice are substituted by nitrogen, to the organic semiconductor graphitic carbon nitride (g-C₃N₄), with a structure based on tri-s-triazine units. In general, composites can reveal outstanding catalytic properties due to synergistic behavior, e.g. the formation of electronic heterojunctions. In this thesis, the formation of an “all-carbon” heterojunction was targeted, i.e. differences in the electronic properties of the single components were achieved by the introduction of different nitrogen motives into the carbon lattice. Such composites are promising as metal-free catalysts for the photocatalytic water splitting. Here, hydrogen can be generated from water by light irradiation with the use of a photocatalyst. As first part of the heterojunction, the organic semiconductor g-C₃N₄ was employed, because of its suitable band structure for photocatalytic water splitting, high stability and non-toxicity. The second part was chosen as C₂N, a recently discovered semiconductor. Compared to g-C₃N₄, the less nitrogen containing C₂N has a smaller band gap and a higher absorption coefficient in the visible light range, which is expected to increase the optical absorption in the composite eventually leading to an enhanced charge carrier separation due to the formation of an electronic heterojunction. The aim of preparing an “all-carbon” composite included the research on appropriate precursors for the respective components g-C₃N₄ and C₂N, as well as strategies for appropriate structuring. This was targeted by applying precursors which can form supramolecular pre-organized structures. This allows for more control over morphology and atom patterns during the carbonization process. In the first part of this thesis, it was demonstrated how the photocatalytic activity of g-C₃N₄ can be increased by the targeted introduction of defects or surface terminations. This was achieved by using caffeine as a “growth stopping” additive during the formation of the hydrogen-bonded supramolecular precursor complexes. The increased photocatalytic activity of the obtained materials was demonstrated with dye degradation experiments. The second part of this thesis was focused on the synthesis of the second component C₂N. Here, a deep eutectic mixture from hexaketocyclohexane and urea was structured using the biopolymer chitosan. This scaffolding resulted in mesoporous nitrogen-doped carbon monoliths and beads. CO₂- and dye-adsorption experiments with the obtained monolith material revealed a high isosteric heat of CO₂-adsorption and showed the accessibility of the monolithic pore system to larger dye molecules. Furthermore, a novel precursor system for C₂N was explored, based on organic crystals from squaric acid and urea. The respective C₂N carbon with an unusual sheet-like morphology could be synthesized by carbonization of the crystals at 550 °C. With this precursor system, also microporous C₂N carbon with a BET surface area of 865 m²/g was obtained by “salt-templating” with ZnCl₂. Finally, the preparation of a g-C₃N₄/C₂N “all carbon” composite heterojunction was attempted by the self-assembly of g-C₃N₄ and C₂N nanosheets and tested for photocatalytic water splitting. Indeed, the composites revealed high rates of hydrogen evolution when compared to bulk g-C₃N₄. However, the increased catalytic activity was mainly attributed to the high surface area of the nanocomposites rather than to the composition. With regard to alternative composite synthesis ways, first experiments indicated N-Methyl-2-pyrrolidon to be suitable for higher concentrated dispersion of C₂N nanosheets. Eventually, the results obtained in this thesis provide precious synthetic contributions towards the preparation and processing of carbon/nitrogen compounds for energy applications. N2 - Eine interessante Materialklasse für technologische Anwendungen sind Kohlenstoff/Stickstoff-Materialien, die sich durch Ungiftigkeit und Umweltfreundlichkeit bei gleichzeitig interessanten katalytischen Eigenschaften auszeichnen. Die Vielseitigkeit dieser Materialkasse basiert auf der Möglichkeit ihre katalytischen und elektronischen Eigenschaften über Stickstoff-Anteil und –Funktionalitäten zu beeinflussen. Die vorliegende Arbeit fokussierte sich auf Komposite zwischen verschiedenen Kohlenstoff/Stickstoff-Derivaten, für welche aufgrund ihrer unterschiedlichen elektronischen Eigenschaften die Bildung elektronischer Heteroübergänge erwartet werden kann. Solche Komposite sind vielversprechende Materialien für die Erzeugung von Wasserstoff durch die photokatalytische Spaltung von Wasser. Für die eine Komponente des Komposits wurde das graphitische Kohlenstoffnitrid g-C₃N₄ eingesetzt, welches durch seine elektronische Struktur und Stabilität ein geeignetes Material für die photokatalytische Wasserspaltung ist. Für die andere Komponente des Komposits wurde eine erst kürzlich erstmalig beschriebene Kohlenstoff/Stickstoff Verbindung eingesetzt, das Kohlenstoffnitrid C₂N. Für dieses Komposit ist eine im Vergleich zu den einzelnen Komponenten stark erhöhte photokatalytische Aktivität zu erwarten. Neben dem Ziel der Herstellung eines solchen Komposits, fokussierte sich diese Arbeit auch darauf, neue Wege zur Synthese und Strukturierung der einzelnen Komponenten zu entwickeln. Dies sollte über supramolekulare Präkursor-Komplexe erfolgen, mit welchen eine erhöhte Einflussnahme auf Karbonisierungsprozesse erlangt werden kann. Im ersten Teil der Arbeit, welcher auf das graphitische Kohlenstoffnitrid g-C₃N₄ fokussiert war, wurde gezeigt wie die photokatalytische Aktivität dieser Komponente durch den gezielten Einbau von Defekten erhöht werden kann. Dies wurde über einen durch Koffein modifizierten supramolekularen Komplex als Präkursor erreicht. Die erhöhte photokatalytische Aktivität wurde über Farbstoff-Zersetzung nachgewiesen. Der zweite Teil der Arbeit war auf die Herstellung und Strukturierung der neuartigen Verbindung C₂N fokussiert. Hier wurde gezeigt, wie eine eutektische Mischung zwischen Hexaketocyclohexan und Harnstoff als C₂N-Präkursor mit dem Polysaccharid Chitosan strukturiert werden kann. Hierbei wurden poröse Stickstoffhaltige Kohlenstoff-Monolithen und -Perlen erhalten, die eine hohe Adsorptionswärme für die CO₂-Adsorption zeigten. Weiterhin wurde ein neuartiger Präkursor für C₂N vorgestellt, eine organisch-kristalline Verbindung zwischen Quadratsäure und Harnstoff. Durch Karbonisation dieser Verbindung bei 550 °C wurde ein Material mit einer Zusammensetzung von C₂N und einer ungewöhnlichen, schichtartigen Morphologie erhalten. Über eine eutektische Salzschmelze mit Zinkchlorid, konnte mit diesem Präkursor-System auch mikroporöser C₂N-Kohlenstoff mit einer BET-Oberfläche von 865 m²/g hergestellt werden. Im letzten Teil dieser Arbeit wurde die Herstellung des g-C₃N₄/C₂N-Komposits versucht, über die Selbstassemblierung von kolloidal dispergierten g-C₃N₄- und C₂N-Nanopartikeln. Die Nanopartikel wurden über Ultraschall-Behandlungen von Dispersionen dieser Komponenten hergestellt. Die erhaltenen Komposite zeigten eine hohe Aktivität zur photokatalytischen Wasserspaltung, wobei dies eher auf die hohe Oberfläche der Nanopartikel als auf ihre Zusammensetzung zurückgeführt wurde. Im Hinblick auf mögliche Alternativen zur Kompositherstellung, wurden erste Experimente zu höher konzentrierten kolloidalen Dispersionen von C₂N in dem organischen Lösungsmittel N-Methyl-2-pyrrolidon durchgeführt. Zusammenfassend, die Ergebnisse die in dieser Arbeit erhalten wurden, liefern einen wertvollen Beitrag zur Synthese und Strukturierung von Kohlenstoff/Stickstoff-Materialien sowie deren Anwendungen im Bereich alternative Energien. KW - carbon nitrides KW - supramolecular chemistry KW - porous materials KW - composite materials KW - photocatalysis KW - Kohlenstoffnitride KW - supramolekulare Chemie KW - poröse Materialien KW - Komposite KW - Photokatalyse Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398855 ER - TY - THES A1 - Kaliga, Sarah Ninette T1 - Eine Frage der Zeit. Wie Einflüsse individueller Merkmale auf Einkommen bei Frauen über ihre familiären Verpflichtungen vermittelt werden T1 - A question of time. How the influence of individual characteristics on women’s income is conveyed through their family responsibilities BT - eine Untersuchung mit Daten der LifE-Studie BT - an analysis with data from the LifE study N2 - Die vorliegende Arbeit mit dem Titel „Eine Frage der Zeit. Wie Einflüsse individueller Merkmale auf Einkommen bei Frauen über ihre familiären Verpflichtungen vermittelt werden“ geht der Frage der Heterogenität bei weiblichen Einkommensergebnissen nach. Dabei steht die Thematik der individuellen Investitionen in die familiäre Arbeit als erklärender Faktor im Vordergrund und es wird der Frage nachgegangen, warum die einen Frauen viele und andere weniger häusliche Verpflichtungen übernehmen. Hierfür werden das individuelle Humankapital der Frauen, ihre Werteorientierungen und individuelle berufliche Motivationen aus der Jugendzeit und im Erwachsenenalter herangezogen. Die analysierten Daten (Daten der LifE-Studie) repräsentieren eine Langzeitperspektive vom 16. bis zum 45. Lebensjahr der befragten Frauen. Zusammenfassend kann im Ergebnis gezeigt werden, dass ein Effekt familiärer Verpflichtungen auf Einkommensergebnisse bei Frauen im frühen und mittleren Erwachsenenalter als Zeiteffekt über die investierte Erwerbsarbeitszeit vermittelt wird. Die Relevanz privater Routinearbeiten für Berufserfolge von Frauen und insbesondere Müttern stellt somit eine Frage der Zeit dar. Weiterhin kann für individuelle Einflüsse auf Einkommen bei Frauen gezeigt werden, dass höhere zeitliche Investitionen in den Beruf von Frauen mit hohem Bildungsniveau als indirect-only-Mediation nur über die Umverteilung häuslicher Arbeiten erklärbar werden. Frauen sind demnach zwar Gewinnerinnen der Bildungsexpansion. Die Bildungsexpansion stellt jedoch auch die Geschichte der Entstehung eines Vereinbarkeitskonflikts für eben diese Frauen dar, weil die bis heute virulenten Beharrungskräfte hinsichtlich der Frauen zugeschriebenen familiären Verpflichtungen mit ihren gestiegenen beruflichen Erwartungen und Chancen kollidieren. Die Arbeit leistet in ihren Analyseresultaten einen wichtigen Beitrag zur Erklärung heterogener Investitionen von Frauen in den Beruf und ihrer Einkommensergebnisse aus dem Privaten heraus. N2 - The present work entitled „A question of time. How the influence of individual characteristics on women’s income is conveyed through their family responsibilities“ examines the question of the heterogenity of female income results. The topic of individual investment in family work is at the forefront as an explanatory factor and the question is why some women assume many and other less domestic obligations. For this purpose, the individual human capital of women, their value orientations and individual professional motivations from adolescence and adulthood are used. The analysed data (data from the LifE-Study) represent a long-term perspective from the 16th to the 45th year of life of the women surveyed. In summary, it can be shown that an effect of family responsibilities on income outcomes for women in early and middle adulthood is conveyed as a time effect over imvested working time. The relevance of private routine work for the professional success of women and especially mothers is therefore a question of time. Furthermore, it can be shown for individual influences on women’s income, that higher investments in the occupation of women with a high educational level can only be explained by the redistribution of domestic work as an indirect-only-mediation. According to this, women are winners in the expansion of education, however, the expansion of education also represents the history of emergence of a conflict of reconciliation for precisely these women, because the family obligations ascribed to women, which are still virulent today, conflict with their increased professional expectations and opportunities. The analysis results of this work make an important contribution to explaining women’s heterogeneous investments in the profession and their income results from the private sphere. KW - Einkommen KW - income KW - Frauen KW - women KW - domestic work KW - Hausarbeit KW - family work KW - Familienarbeit KW - mediation analysis KW - Mediationsanalyse KW - occupational career KW - Berufskarriere KW - human capital KW - Humankapital KW - educational expansion KW - Bildungsexpansion KW - Arbeitsteilung KW - division of labour Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407353 ER - TY - THES A1 - Kasch, Juliane T1 - Impact of maternal high-fat consumption on offspring exercise performance, skeletal muscle energy metabolism, and obesity susceptibility T1 - Einfluss der maternalen Ernährung auf den Energiestoffwechsel des Skelettmuskels, die Ausdauerleistung und die Adipositasentwicklung der Nachkommen N2 - Background: Obesity is thought to be the consequence of an unhealthy nutrition and a lack of physical activity. Although the resulting metabolic alterations such as impaired glucose homeostasis and insulin sensitivity can usually be improved by physical activity, some obese patients fail to enhance skeletal muscle metabolic health with exercise training. Since this might be largely heritable, maternal nutrition during pregnancy and lactation is hypothesized to impair offspring skeletal muscle physiology. Objectives: This PhD thesis aims to investigate the consequences of maternal high-fat diet (mHFD) consumption on offspring skeletal muscle physiology and exercise performance. We could show that maternal high-fat diet during gestation and lactation decreases the offspring’s training efficiency and endurance performance by influencing the epigenetic profile of their skeletal muscle and altering the adaptation to an acute exercise bout, which in long-term, increases offspring obesity susceptibility. Experimental setup: To investigate this issue in detail, we conducted several studies with a similar maternal feeding regime. Dams (C57BL/6J) were either fed a low-fat diet (LFD; 10 energy% from fat) or high-fat diet (HFD; 40 energy% from fat) during pregnancy and lactation. After weaning, male offspring of both maternal groups were switched to a LFD, on which they remained until sacrifice in week 6, 15 or 25. In one study, LFD feeding was followed by HFD provision from week 15 until week 25 to elucidate the effects on offspring obesity susceptibility. In week 7, all mice were randomly allocated to a sedentary group (without running wheel) or an exercised group (with running wheel for voluntary exercise training). Additionally, treadmill endurance tests were conducted to investigate training performance and efficiency. In order to uncover regulatory mechanisms, each study was combined with a specific analytical setup, such as whole genome microarray analysis, gene and protein expression analysis, DNA methylation analyses, and enzyme activity assays. Results: mHFD offspring displayed a reduced training efficiency and endurance capacity. This was not due to an altered skeletal muscle phenotype with changes in fiber size, number, and type. DNA methylation measurements in 6 week old offspring showed a hypomethylation of the Nr4a1 gene in mHFD offspring leading to an increased gene expression. Since Nr4a1 plays an important role in the regulation of skeletal muscle energy metabolism and early exercise adaptation, this could affect offspring training efficiency and exercise performance in later life. Investigation of the acute response to exercise showed that mHFD offspring displayed a reduced gene expression of vascularization markers (Hif1a, Vegfb, etc) pointing towards a reduced angiogenesis which could possibly contribute to their reduced endurance capacity. Furthermore, an impaired glucose utilization of skeletal muscle during the acute exercise bout by an impaired skeletal muscle glucose handling was evidenced by higher blood glucose levels, lower GLUT4 translocation and diminished Lactate dehydrogenase activity in mHFD offspring immediately after the endurance test. These points towards a disturbed use of glucose as a substrate during endurance exercise. Prolonged HFD feeding during adulthood increases offspring fat mass gain in mHFD offspring compared to offspring from low-fat fed mothers and also reduces their insulin sensitivity pointing towards a higher obesity and diabetes susceptibility despite exercise training. Consequently, mHFD reduces offspring responsiveness to the beneficial effects of voluntary exercise training. Conclusion: The results of this PhD thesis demonstrate that mHFD consumption impairs the offspring’s training efficiency and endurance capacity, and reduced the beneficial effects of exercise on the development of diet-induced obesity and insulin resistance in the offspring. This might be due to changes in skeletal muscle epigenetic profile and/or an impaired skeletal muscle angiogenesis and glucose utilization during an acute exercise bout, which could contribute to a disturbed adaptive response to exercise training. N2 - Hintergrund: Übergewicht ist die Folge einer ungesunden Ernährung und einem Mangel an körperlicher Aktivität. Obwohl die daraus resultierenden metabolischen Veränderungen wie die beeinträchtigte Glukose-Homöostase und die Insulinsensitivität in der Regel durch körperliche Aktivität verbessert werden können, sind einige adipöse Patienten nicht in der Lage ihren Skelettmuskel-Metabolismus durch regelmäßiges Training zu verbessern. Da dies weitgehend vererbbar sein könnte, wird vermutet, dass die maternale Ernährung während der Gestation und Laktation einen beeinträchtigten Energiestoffwechsel des Skelettmuskels der Nachkommen begünstigt. Ziel: Ziel dieser Dissertation war es, den Einfluss der maternalen Hochfett-Diät (mHFD) auf den Skelettmuskel des Nachkommens zu untersuchen. Wir konnten zeigen, dass eine mHFD während der Gestation und Laktation die Trainingseffizienz und die Ausdauerleistung der Nachkommen verringert, verursacht durch die Veränderung des epigenetischen Profils des Skelettmuskels der Nachkommen und der verminderten Anpassung an eine akute Trainingsleistung, was langfristig die Anfälligkeit für die Entwicklung einer Adipositas im Nachkommen erhöht. Experimentelles Setup: Um dieses Thema ausführlich zu erforschen, hatten wir ein komplexes Studiendesign. Allen vier Studien ging dasselbe maternale Fütterungsregime voraus. Weibliche C57BL/6J Mäuse wurden entweder mit einer Niedrigfett-Diät (LFD; 10 Energie% aus Fett) oder Hochfett-Diät (HFD; 40 Energie% aus Fett) während der Gestation und Laktation gefüttert. Nach Absatz wurden die männlichen Nachkommen beider Gruppen auf eine LFD umgestellt, auf der sie bis zum Ende der jeweiligen Studie in der Woche 6, 15 oder 25 blieben. In einer Studie folgte auf die LFD-Fütterung eine HFD-Versorgung von Woche 15 bis Woche 25, um den Einfluss der maternalen Diät auf die Entwicklung einer Adipositas der Nachkommen aufzuklären. In der 7. Woche wurden alle Mäuse zufällig einer sesshaften Gruppe (ohne Laufrad) oder einer Trainingsgruppe (mit Laufrad für freiwilliges Trainingstraining) zugewiesen. Darüber hinaus wurden Laufband-Ausdauertests durchgeführt, um die Trainingsleistung und -effizienz zu untersuchen. Um die regulatorischen Mechanismen aufzudecken, wurde jede Studie mit einem spezifischen analytischen Aufbau kombiniert, wie z. B. einer Mikroarray-Analyse, Gen- und Protein-Expressionsanalysen, DNA-Methylierungsanalysen und Enzymaktivitäts-Assays. Ergebnisse: mHFD Nachkommen zeigten eine reduzierte Trainingseffizienz und Ausdauerkapazität. Dies ist nicht auf einen veränderten Skelettmuskel-Phänotyp mit Veränderungen der Muskelfasergröße, der Anzahl und der Muskelfasertypen zurückzuführen. DNA-Methylierungsmessungen bei 6 Wochen alten Nachkommen zeigten eine Hypomethylierung des Nr4a1-Gens in mHFD-Nachkommen, was wiederum in einer erhöhten Genexpression resultierte. Da Nr4a1 eine wichtige Rolle bei der Regulierung des Skelettmuskel-Energiestoffwechsels und der frühen Trainingsanpassung spielt, könnte dies die Trainingseffizienz und -leistung der Nachkommen im späteren Leben beeinflussen. Bei der Untersuchung der Reaktion auf eine akute Ausdauerleistung zeigten die mHFD-Nachkommen eine reduzierte Genexpression von Vaskularisierungsmarkern (Hif1a, Vegfb usw.), die auf eine reduzierte Angiogenese hindeuteten, welche eine Ursache für ihre verminderte Ausdauerkapazität darstellen könnte. Darüber hinaus wurde eine beeinträchtigte Glucoseverwertung des Skelettmuskels während des akuten Ausdauertrainings durch eine beeinträchtigte Glucose-Nutzung des Skelettmuskels mit erhöhten Blutzuckerwerten, einer verminderten GLUT4-Translokation und Laktatdehydrogenase-Aktivität in mHFD-Nachkommen unmittelbar nach dem Ausdauertest gezeigt. Dies weist auf eine gestörte Verwertung der Glucose als Substrat während des Ausdauertrainings hin. Länger andauernde HFD-Fütterung während des Erwachsenenalters erhöht die Fettmasse in mHFD-Nachkommen im Vergleich zu mLFD-Nachkommen und verringert zudem ihre Insulinsensitivität, was Hinweise auf eine erhöhte Adipositas- und Diabetes-Anfälligkeit gibt. Folglich führt die mHFD zu einer verminderten Anpassung der Nachkommen an die positiven Effekte des freiwilligen Laufrad-Trainings. Schlussfolgerung: Die Ergebnisse dieser Dissertation zeigen, dass der mHFD-Konsum die Trainingseffizienz und Ausdauerkapazität der Nachkommen beeinträchtigt, was die Adipositas- und Diabetes-Anfälligkeit im Erwachsenenalter erhöhen kann. Dies könnte auf Veränderungen im epigenetischen Profil des Skelettmuskels und/oder Beeinträchtigungen der Angiogenese und Glukoseverwertung im Skelettmuskel während eines akuten Ausdauertrainings zurückzuführen sein, was zu einer gestörten Anpassung der Nachkommen an das Training beitragen könnte. KW - maternal diet KW - offspring KW - exercise performance KW - skeletal muscle KW - obesity KW - maternale Ernährung KW - Nachkommen KW - Ausdauerleistung KW - Skelettmuskel KW - Adipositas Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-409703 ER - TY - THES A1 - Kayser, Markus T1 - Wechselwirkung der atmosphärischen Grenzschicht mit synoptisch–skaligen Prozessen während der N-ICE2015 Kampagne N2 - Die Arktis erwärmt sich schneller als der Rest der Erde. Die Auswirkungen manifestieren sich unter Anderem in einer verstärkten Erwärmung der arktischen Grenzschicht. Diese Arbeit befasst sich mit Wechselwirkungen zwischen synoptischen Zyklonen und der arktischen Atmosphäre auf lokalen bis überregionalen Skalen. Ausgangspunkt dafür sind Messdaten und Modellsimulationen für den Zeitraum der N-ICE2015 Expedition, die von Anfang Januar bis Ende Juni 2015 im arktischen Nordatlantiksektor stattgefunden hat. Anhand von Radiosondenmessungen lassen sich Auswirkungen von synoptischen Zyklonen am deutlichsten im Winter erkennen, da sie durch die Advektion warmer und feuchter Luftmassen in die Arktis den Zustand der Atmosphäre von einem strahlungs-klaren in einen strahlungs-opaken ändern. Obwohl dieser scharfe Kontrast nur im Winter existiert, zeigt die Analyse, dass der integrierte Wasserdampf als Indikator für die Advektion von Luftmassen aus niedrigen Breiten in die Arktis auch im Frühjahr geeignet ist. Neben der Advektion von Luftmassen wird der Einfluss der Zyklonen auf die statische Stabilität charakterisiert. Beim Vergleich der N-ICE2015 Beobachtungen mit der SHEBA Kampagne (1997/1998), die über dickerem Eis stattfand, finden sich trotz der unterschiedlichen Meereisregime Ähnlichkeiten in der statischen Stabilität der Atmosphäre. Die beobachteten Differenzen in der Stabilität lassen sich auf Unterschiede in der synoptischen Aktivität zurückführen. Dies lässt vermuten, dass die dünnere Eisdecke auf saisonalen Zeitskalen nur einen geringen Einfluss auf die thermodynamische Struktur der arktischen Troposphäre besitzt, solange eine dicke Schneeschicht sie bedeckt. Ein weiterer Vergleich mit den parallel zur N-ICE2015 Kampagne gestarteten Radiosonden der AWIPEV Station in Ny-Åesund, Spitzbergen, macht deutlich, dass die synoptischen Zyklonen oberhalb der Orographie auf saisonalen Zeitskalen das Wettergeschehen bestimmen. Des Weiteren werden für Februar 2015 die Auswirkungen von in der Vertikalen variiertem Nudging auf die Entwicklung der Zyklonen am Beispiel des hydrostatischen regionalen Klimamodells HIRHAM5 untersucht. Es zeigt sich, dass die Unterschiede zwischen den acht Modellsimulationen mit abnehmender Anzahl der genudgten Level zunehmen. Die größten Differenzen resultieren vornehmlich aus dem zeitlichen Versatz der Entwicklung synoptischer Zyklonen. Zur Korrektur des Zeitversatzes der Zykloneninitiierung genügt es bereits, Nudging in den unterstem 250 m der Troposphäre anzuwenden. Daneben findet sich zwischen den genudgten HIRHAM5-Simulation und den in situ Messungen der gleiche positive Temperaturbias, den auch ERA-Interim besitzt. Das freie HIRHAM hingegen reproduziert das positive Ende der N-ICE2015 Temperaturverteilung gut, besitzt aber einen starken negativen Bias, der sehr wahrscheinlich aus einer Unterschätzung des Feuchtegehalts resultiert. An Beispiel einer Zyklone wird gezeigt, dass Nudging Einfluss auf die Lage der Höhentiefs besitzt, die ihrerseits die Zyklonenentwicklung am Boden beeinflussen. Im Weiteren wird mittels eines für kleine Ensemblegrößen geeigneten Varianzmaßes eine statistische Einschätzung der Wirkung des Nudgings auf die Vertikale getroffen. Es wird festgestellt, dass die Ähnlichkeit der Modellsimulationen in der unteren Troposphäre generell höher ist als darüber und in 500 hPa ein lokales Minimum besitzt. Im letzten Teil der Analyse wird die Wechselwirkung der oberen und unteren Stratosphäre anhand zuvor betrachteter Zyklonen mit Daten der ERA-Interim Reanalyse untersucht. Lage und Ausrichtung des Polarwirbels erzeugten ab Anfang Februar 2015 eine ungewöhnlich große Meridionalkomponente des Tropopausenjets, die Zugbahnen in die zentrale Arktis begünstigte. Am Beispiel einer Zyklone wird die Übereinstimmung der synoptischen Entwicklung mit den theoretischen Annahmen über den abwärts gerichteten Einfluss der Stratosphäre auf die Troposphäre hervorgehoben. Dabei spielt die nicht-lineare Wechselwirkung zwischen der Orographie Grönlands, einer Intrusion stratosphärischer Luft in die Troposphäre sowie einer in Richtung Arktis propagierender Rossby-Welle eine tragende Rolle. Als Indikator dieser Wechselwirkung werden horizontale Signaturen aus abwechselnd aufsteigender und absinkender Luft innerhalb der Troposphäre identifiziert. N2 - The Arctic warms faster than the rest of the earth. The causes and effects of this arctic amplification are manifested in the arctic atmosphere, especially in the atmospheric boundary layer, which plays a key role in the exchange processes of the atmosphere, ocean and sea ice. This work highlights the importance of synoptic cyclones in the Arctic North Atlantic region. For this purpose, the influence of synoptic cyclones on the Arctic boundary layer as well as their interactions with different regions within the Arctic atmosphere on local to supraregional scales is investigated. The starting point for this are measurement data and model simulations for the period of the NICE2015 expedition, which took place in the Arctic North Atlantic region from early January to late June 2015. On the basis of radiosonde measurements, the effects of synoptic cyclones are most noticeable in the winter because, by the advection of warm and humid air masses into the Arctic, the condition of the atmosphere changes from a radiative clear to opaquely cloudy. Although this sharp contrast only exists in winter, the analysis shows that integrated water vapor is an indicator for the advection of air masses from low latitudes into the Arctic even in the spring. In addition to the advection of air masses, the influence of cyclones on static stability is characterized. Comparing the N-ICE2015 observations with the SHEBA campaign (1997/1998), which took place over thicker ice, similarities are found in the static stability of the atmosphere despite the different sea ice regimes. The observed differences in stability can be attributed to differences in synoptic activity. A further comparison with the radiosondes of the AWIPEV station in Ny-Åesund, Spitzbergen, which were launched parallel to the N-ICE2015 campaign, shows that synoptic cyclones determine the course of the winter months. In addition, the effects of vertically-varying nudging on the development of cyclones is examined for February 2015 using the hydrostatic regional climate model HIRHAM5. It is shown that the differences between the eight model simulations are increasing with decreasing number of nudged levels. The greatest differences are mainly due to the temporal offset of the development of synoptic cyclones. To correct the time offset of the cyclone initiation, it is sufficient to use nudging in the lowest troposphere. The free HIRHAM reproduces the positive end of the N-ICE2015 temperature distribution well, but has a strong negative bias which most likely results from an under-estimation of the moisture content. An example of a cyclone shows that nudging has an influence on the position of the high altitude lows, which in turn influences cyclone development on the ground. Furthermore, a statistical estimate of the effect of nudging on the vertical is made by means of a variance measure suitable for small ensemble sizes. It is found that the similarity of model simulations in the lower troposphere is generally higher than above and has a local minimum in 500 hPa. In the last part of the analysis, the interaction of the upper troposphere and the lower stratosphere is investigated with data from the ERA interim reanalysis using previously examined cyclones. The position and orientation of the polar vortex produced an unusually large meridional component of the tropopause jets, which favored passage of low pressure systems into the central Arctic from the beginning of February 2015 onwards. Using a cyclone as an example, the synoptic development is compared with the theoretical assumptions about the downward impact of the stratosphere on the troposphere. The non-linear interaction between Greenland’s orography, an intrusion of stratospheric air into the troposphere, and a Rossby wave propagating in the direction of the Arctic play a key role in the selected time frame. As an indicator of this interaction, horizontal signatures are identified from alternately ascending and descending air within the troposphere. KW - arktische Grenzschicht KW - Arctic boundary layer KW - synoptische Zyklone KW - synoptic cyclones KW - thermodynamische Struktur KW - thermodynamic structure KW - regional climate simulations KW - regionale Klimasimulationen KW - nudging Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-411124 ER -