Refine
Has Fulltext
- yes (2557) (remove)
Year of publication
Document Type
- Doctoral Thesis (2557) (remove)
Language
Keywords
- climate change (53)
- Klimawandel (51)
- Modellierung (34)
- Nanopartikel (28)
- machine learning (22)
- Fernerkundung (20)
- Synchronisation (19)
- remote sensing (18)
- Spracherwerb (17)
- Blickbewegungen (16)
Institute
- Institut für Physik und Astronomie (410)
- Institut für Biochemie und Biologie (391)
- Institut für Geowissenschaften (329)
- Institut für Chemie (304)
- Extern (153)
- Institut für Umweltwissenschaften und Geographie (124)
- Institut für Ernährungswissenschaft (102)
- Wirtschaftswissenschaften (97)
- Hasso-Plattner-Institut für Digital Engineering GmbH (93)
- Department Psychologie (89)
Die Entstehung der modernen britischen Nachrichtendienstarchitektur fiel in die erste Hälfte des zwanzigsten Jahrhunderts. Zeitgleich erfuhr die britische Gesellschaft eine nie dagewesene Demokratisierung. Die Arbeit versucht darzulegen, wie auch vermeintlich arkane Bereiche staatlichen Handelns in öffentliche Aushandlungsprozesse eingebettet sind und rekonstruiert deshalb erstmals systematisch öffentliche und fachöffentliche Diskurse über Nachrichtendienste Großbritanniens im Zeitalter der Weltkriege.
Pädagog*innen der Primarstufe nehmen an spezifischen bewegungsorientierten Weiterbildungen teil. Zahlreiche Untersuchungen im Kontext von Fort- und Weiterbildungen stellen dar, unter welchen Bedingungen sich Teilnahmen förderlich oder hinderlich auswirken. In didaktisch-konzeptionellen Überlegungen werden häufig Fragen diskutiert, wie äußere Umstände, etwa in Bezug auf zeitliche, räumliche oder inhaltliche Dimensionen, zu gestalten sind, damit Bildungsangebote im Schulsystem bestimmte Wirkungen erzielen. Unter welchen Bedingungen erfolgt sozusagen günstiger Weise eine Vermittlung von spezifischen Inhalten an Lehrer*innen, damit über diese ein Transfereffekt von (system-)relevantem Wissen in das Schulsystem erfolgen kann?
In dieser Forschungsarbeit soll nicht ein Bedingungsdiskurs im Vordergrund stehen, auf dessen Grundlage wirkungsvolle Vermittlungsstrategien für Bildungsangebote diskutiert werden. Im Zentrum steht die Frage nach je eigenen Teilnahme- und Lernbegründungen von Pädagog*innen, und wie sie sich zu ihrer Weiterbildung ins Verhältnis setzen. Dieser Zugang verändert die Perspektive auf die Thematik und erlaubt die Auseinandersetzung mit Subjekten im Rahmen eines Begründungsdiskurses. Im Zuge einer empirisch-qualitativen Studie werden narrative Interviews mit elf Absolvent*innen einer bewegungsorientierten Weiterbildung geführt, die Auswertung der Daten erfolgt mit der Dokumentarischen Methode. Die Rekonstruktionsergebnisse werden in Form von zwei Fallbeschreibungen und durch vier typische, in der Studie entwickelte, Begründungsfiguren dargestellt: die Figur Lernen, die Figur Wissensmanagement, die Figur Neugierige Suche und die Figur Körperliche Aktivität. Neben der Rekonstruktion von Teilnahme- und Lernbegründungsmustern wird deutlich, dass Teilnehmen und Lernen keine unterschiedlichen Zugangslogiken in Bezug auf Bedeutungs-Begründungs-Zusammenhänge verfolgen. Vielmehr sind sowohl expansive als auch defensive Lernbegründungen im Zuge von Teilnahmebegründungen identifizierbar.
In einer quasiexperimentellen Längsschnittstudie mit 380 Lehramtsstudierenden wurde das Interventionsprogramm „Gestärkt für den Lehrerberuf“, welches Elemente eines Self-Assessments der berufsrelevanten Kompetenzen mit konkreten Beratungsmöglichkeiten und einem Zieleffektivitätstraining (Dargel, 2006) zur Entwicklung individueller berufsbezogener Kompetenzen verbindet, auf seine Wirksamkeit (Reflexionskompetenz, Lehrerselbstwirksamkeit, berufsbezogene Kompetenzen, Beanspruchungserleben, Widerstandsfähigkeit) und den Wirkungsprozess (Zielbindung, Zielrealisierbarkeit, Zieleffektivität) hin überprüft. In dem Prä-Post-Follow-up-Test-Vergleichsgruppen-Design wurden eine Interventionsgruppe, deren Treatment auf dem Stärkenansatz basiert (1), eine defizitorientierte Interventionsgruppe (2), sowie eine kombinierte Interventionsgruppe, bei der der Stärkenansatz durch den Defizitansatz ergänzt wird (3), einer unbehandelten Kontrollgruppe sowie einer alternativ behandelten Kontrollgruppe, die ausschließlich in ihren sozial-kommunikativer Kompetenzen geschult wurde, gegenübergestellt. Es gelang zum Post- und Follow-up-Test, sowohl die individuellen beruflichen Kompetenzen als auch die Reflexionskompetenz von Teilnehmern der Interventionsgruppen im Vergleich zur unbehandelten Kontrollgruppe zu fördern. Die Teilnehmer der kombinierten Intervention profitierten im Vergleich zu den Teilnehmern der anderen beiden Interventionsgruppen stärker im Bereich Lehrerselbstwirksamkeit, Widerstandsfähigkeit und Zieleffektivität. Gegenüber der alternativen Kontrollgruppe zeigten sie ebenfalls einen stärkeren Zuwachs in der Entwicklung ihrer berufsrelevanten Kompetenzen und in ihrer Widerstandsfähigkeit. Die Studie liefert erste Hinweise darauf, dass ein Ansatz, welcher Stärkenfokussierung und Defizitorientierung integriert, besonders effektiv wirkt.
Der historische Spielfilm zählt zu den populärsten Formen geschichtskultureller Artikulation. Als solche ist er Gegenstand kontroverser Diskussionen über einen angemessenen didaktischen Umgang. Vor diesem Hintergrund ist es das Ziel der vorliegenden Arbeit, ein integratives, theoretisch und empirisch abgesichertes Analysemodell zu entwickeln, das nach den Tiefenstrukturen historischen Erzählens im Medium des Spielfilms fragt und dabei unterschiedliche Erscheinungsformen historischer Spielfilme berücksichtigt. Die Überlegungen bewegen sich deshalb in einem interdisziplinären Spannungsfeld von Theorien zum historischen Erzählen und Konzepten der Literatur- und Filmwissenschaft. Die Diskussion und Synthese dieser unterschiedlichen Konzepte geht dabei – auf der Grundlage einer großen Materialbasis – vom Gegenstand aus und ist induktiv angelegt. Als Orientierung für die praktische Arbeit werden am Ende der einzelnen Kapitel Toolkits entwickelt, die zu einer vertieften Auseinandersetzung mit historischen Spielfilmen anregen sollen.
This study focuses on William Faulkner, whose works explore the demise of the slavery-based Old South during the Civil War in a highly experimental narrative style. Central to this investigation is the analysis of the temporal dimensions of both individual and collective guilt, thus offering a new approach to the often-discussed problem of Faulkner’s portrayal of social decay. The thesis examines how Faulkner re-narrates the legacy of the Old South as a guilt narrative and argues that Faulkner uses guilt in order to corroborate his concept of time and the idea of the continuity of the past. The focus of the analysis is on three of Faulkner’s arguably most important novels: The Sound and the Fury, Absalom, Absalom!, and Go Down, Moses. Each of these novels features a main character deeply overwhelmed by the crimes of the past, whether private, familial, or societal. As a result, guilt is explored both from a domestic as well as a social perspective. In order to show how Faulkner blends past and present by means of guilt, this work examines several methods and motifs borrowed from different fields and genres with which Faulkner narratively negotiates guilt. These include religious notions of original sin, the motif of the ancestral curse prevalent in the Southern Gothic genre, and the psychological concept of trauma. Each of these motifs emphasizes the temporal dimensions of guilt, which are the core of this study, and makes clear that guilt in Faulkner’s work is primarily to be understood as a temporal rather than a moral problem.
תקציר
מצוות הפריון הינה אחת מן המצוות החשובות ביהדות ומגדירה במובנים רבים את מהות קיומו של האדם היהודי הדתי. זוגות דתיים אשר סובלים מבעיית פריון נקרעים לא פעם בין מחוייבותם הדתית והלחץ החברתי בקהילתם לבין אי יכולתם להביא ילדים לעולם בדרך טבעית. החל מאמצע המאה ה 20- הפכו טכנולוגיות פריון רפואיות לנגישות לציבור הרחב בישראל ובעולם והובילו למהפכה חברתית אשר אפשרה לזוגות חשוכי ילדים להגשים את חלומם בפעם הראשונה ולהפוך להורים. פריצת דרך רפואית זו לא נעלמה מעיני הציבור הדתי על זרמיו השונים וגרמה לטלטלה בתפיסת עולמם של מנהיגיהם, אשר נדרשו לתת מענה הלכתי הולם המאזן בין רווחת קהילותיהם לבין שמירה על ערכי ומצוות הדת היהודית. על רקע תמורות אלו התפתח שיח הלכתי ואקדמי חשוב ומעניין באשר למקומה של טכנולוגיה מודרנית בחברה המתנהלת על פי קודים מסורתיים. עם זאת, הדיאלוג החי המתקיים בין מנהיגי היהדות לבין קהילותיהם, אשר מתועד כאוסף שאלות ותשובות (שו"ת) לבעיות הלכתיות אקטואליות בתחום הפריון, לא נחקר דיו.
עבודתנו עוסקת במחקר ספרות השו"ת ובגישת פוסקי ההלכה להסתייעות בטכנולוגיית ההזרעה המלאכותית ובטיפולי פוריות חדשניים נוספים שהתפתחו בעקבותיה כגון הפריה חוץ גופית, פונדקאות ותרומת ביציות. העבודה סוקרת את התגבשות ועיצוב ההלכה בשאלה זו, כפי שעולה מספרות השו"ת החל מתקופת הראשונים (המאות ה 11- עד ה- 16 ) ועד לפוסקים מתקופת האחרונים (המאה ה- 16 ואילך), ומתמקדת בעיקר בתקופה המודרנית של המאה האחרונה. במרכז העבודה יעמדו מעמדם ההלכתי של האם והוולד בעקבות שימוש בהזרעה והפריה מלאכותית וכן השלכותיהן ההלכתיות של השימוש הרפואי בזרע.
תרומתו של מחקר זה הינה בהצגת וניתוח התמודדות הפוסקים עם העימות הערכי וההלכתי שמעוררות תמורות במבנה המשפחה ובדפוסי הורות מסורתיים כתוצאה משימוש הולך וגובר בטכנולוגיות פריון מתקדמות בחברה המודרנית. יתר על כן, מחקר זה מרחיב את הדיון ההלכתי אל מעבר לעמדות הפוסקים ביהדות האורתודוקסית, הנצמדים לעקרונות ההלכה ההיסטורית, ומציג לראשונה אף את קשת הדעות של רבנים המשתייכים לזרמי היהדות המתקדמת והקונסרבטיבית, הדוגלים בפיתוח ההלכה והתאמתה למציאות החיים המשתנה. כך, מעניקה עבודת מחקר זו תמונה שלמה ומקיפה יותר באשר להתמודדות הרבנים עם שאלת ההזרעה המלאכותית ומציגה את רב גוניותה של ההלכה כפי שמשתקפת בזרמי היהדות השונים בישראל ובתפוצות.
העבודה מחולקת לשישה חלקים אשר יפורטו בקצרה להלן.
חלק ראשון - מבוא לשאלת ההזרעה המלאכותית בספרות השו"ת
חלק זה מהווה מבוא והקדמה תיאורטית ומחקרית לשאלת ההזרעה המלאכותית ומטרתו לצייד את הקורא ברקע ההיסטורי ובכלים המחקריים הדרושים להמשך העבודה. הפרק הראשון סוקר מצוות דתיות והשקפות תרבותיות בנוגע לילודה בחברה היהודית ואילו הפרק השני מניח יסודות מתודולוגיים והיסטוריים הנחוצים לחקר שאלת ההזרעה המלאכותית בספרות השו"ת.
פרק ראשון - מצוות דתיות והשקפות תרבותיות בנוגע לילודה בחברה היהודית
פרק זה מציג את המשנה האידיאולוגית העומדת בבסיס ההצדקה ההלכתית להתרתם של טיפולי הפוריות. הפרק דן בחשיבות מצוות הפריון כפי שעולה ממקורות הלכתיים קדומים וברקע ההיסטורי והתרבותי למרכזיותה של מצווה זו ומצוות נלוות לה בדת היהודית. הפרק מדגים כיצד עיצבה חשיבות המצווה את דפוס המשפחה היהודית לאורך ההיסטוריה ועד לימינו ומסתיים בדיון קצר בשאלות רפואיות מוסריות העולות מהנגשת טכנולוגיות פריון מתקדמות במדינת ישראל המודרנית.
פרק שני - יסודות מתודולוגיים והיסטוריים בחקר שאלת ההזרעה המלאכותית בספרות השו"ת
בפרק זה מוצגים תחילה מטרות ושיטות המחקר אשר נבחרו לשם ניתוח הפסיקה בשאלת ההזרעה המלאכותית. מכיוון שהעבודה עוסקת בשאלה רפואית חדשנית והשפעתה על העולם הדתי, יערך מחקר זה תוך שימוש בניתוח רב מימדי המשלב מספר שיטות מחקר ובראשן השיטה הדוגמטית-היסטורית, כמו גם בניתוח ביקורתי של שיקולי המדיניות העומדים בבסיס שיקולי הפוסקים לפי אסוכלת הריאליזים ההלכתי. לאחר מכן נסקרים ונידונים המקורות ההיסטוריים העיקריים אשר עוסקים בהתעברות על טבעית באמבט או באמצעות שכיבה על סדינים והעומדים בבסיס הכרעות הפוסקים בהשלכות הזרעה מלאכותית על מעמדם ההלכתי של האישה והילוד.
חלק שני- ספרות השו"ת האורתודוקסית בשאלת הזרעה מלאכותית מן הבעל
חלקו שני של המחקר עוסק בניתוח ספרות השו"ת האורתודוקסית בשאלת הזרעה מלאכותית מן הבעל ובוחן את התפתחותו הרעיונית של איסור השחתת זרע ואת עמדות הפוסקים בשאלת הזרעה מלאכותית מן הבעל כפי שנידונה בספרות השו"ת.
פרק ראשון - התפתחותו הרעיונית של איסור השחתת זרע
בפרק זה נסקרים מקורותיו ההיסטוריים של האיסור להשחתת זרע. איסור זה נושק לכל תחומי חייו של הזוג הדתי ובעיקר לתחום המיניות והפריון ובעל השפעה מהותית על מגבלות הצניעות שהוחלו בעקבותיו על המיניות הגברית. קיים ויכוח בין החוקרים האם נובע האיסור מן המקורות העתיקים כגון התלמוד או לחילופין התעצם בעקבות החמרות הרבנים. מחקרינו מציע כי האפשרות השניה היא הסבירה יותר. חכמי התלמוד מפגינים גישה מקלה כלפי האיסור אך מביעים סלידה מהוצאת זרע לבטלה מתוך חשיבה חסידית או אמונה כי עיסוק בעינוג מיני עצמי עלול להסיט את האדם מקיום מצוות הפריון. לעומת זאת, בספרות הקבלה ובמיוחד בזוהר ניכרת החמרה במימדי האיסור החודרת מאוחר יותר אל עולם ההלכה.
פרק שני - דיון בהזרעה מן הבעל בספרות השו"ת
הפרק דן בפסיקותיהם של רבנים בולטים בזרם האורתודוקסי בשאלת ההזרעה מן הבעל. בספרות השו"ת האורתודוקסית ניכרת השפעתו של איסור הוצאת זרע לבטלה על שיקולי הפוסקים באם להתיר את הטיפול בהזרעה מלאכותית מן הבעל. פוסקים מקלים כגון הרבנים פיינשטיין, נבנצל ויוסף מייחסים משקל רב יותר לחשיבות מצוות הפריון ומצמצמים בשל כך את תחולת האיסור. לעומתם, פוסקים מחמירים ובראשם הרבנים טננבוים, קוק, עוזיאל, הדאיה ולדנברג מתנגדים לטיפולי פוריות מחשש השחתת זרע ובשל השלכותיה הרוחניות של העבירה על האיסור. שאלה מהותית נוספת בשיח ההלכתי בה נחלקו הרבנים הינה באשר לאפשרות קיומה של מצוות הפריה והרביה באמצעות הריון שהושג בסיוע רפואי. פוסקים מדור האחרונים, כגון הרבנים טננבוים, סגל ואזולאי (החיד"א), ובעקבותיהם פוסקים בולטים במאה ה- 20 וה- 21 כמו הרבנים עוזיאל, הדאיה, ולדנברג וקניבסקי סברו כי ניתן לקיים את המצווה באופן טבעי בלבד. לעומת זאת, הרבנים נבנצל, יוסף, וינברג ואוירבך ייחסו חשיבות רבה יותר לכוונת העושה ולתוצאה המיוחלת של ההריון אשר מגשימה לדעתם את הרציונל העומד בבסיס מצוות הפרייה הרבייה ובמצוות ישוב העולם.
שאלה נוספת המתעוררת בעניין הזרעה מן הבעל ונידונה בפרק זה עוסקת בבעיית העקרות ההלכתית. התעקשות הרבנים לשמור על הלכות הנידה במתכונתן המסורתית חושפת נשים דתיות לאי ודאות באשר לטהרתן ומכפיפה את חיי המין והפריון של משפחות שלמות למרות הסמכות הרבנית.
חלק שלישי- ספרות השו"ת האורתודוקסית בשאלת הזרעה מלאכותית מתורם
חלקו השלישי של המחקר עוסק בדיון ההלכתי האורתודוקסי בשאלת ההזרעה המלאכותית מתורם יהודי או נוכרי לאישה נשואה. מרבית הפוסקים הסתייגו מתרומת זרע לאישה נשואה מתורם יהודי כמו גם מנוכרי משיקולים הלכתיים ואידיאולוגיים.
פרק ראשון - שאלת ההזרעה המלאכותית מתורם יהודי
תרומת זרע מתורם יהודי זר מעלה חששות הלכתיים רבים לגבי מעמדה ההלכתי של האישה כגון ניאוף וקיום מצוות הייבום והחליצה. כמו כן הועלו חששות לגבי יחוסו וכשרותו ההלכתית של הקטין כגון חשש ממזרות, גילוי עריות בין ילדי התורם, פגיעה במעמד הכהונה ובעיות בתחום המעמד האישי בשל אי ודאות לגבי זהות התורם. בנוסף, משליכה הכרעה בשאלות אלה על זכאות הקטין לזכויות סוציאליות המגיעות לו מאביו, כגון הזכות למזונות ולירושה. פסיקת ההלכה במאה האחרונה אימצה את עמדתו של הרב פיינשטיין, לפיה רק הריון הנובע ממגע מיני ישיר בין אישה נשואה לגבר זר, בניגוד להזרעה מלאכותית, יכול לפגוע במעמד האישה והילוד. עם זאת, פוסקים רבים אסרו לבצע הזרעה מלאכותית מגבר יהודי מטעמי זהירות, בגין חששות אלו.
פרק שני - הזרעה מלאכותית מתורם לא יהודי לאישה נשואה
על אף שבמקרה של תרומת זרע מנוכרי נעדר הילוד יחוס לאביו הנוכרי וכשרותו נקבעת על פי מעמד האם בלבד, מסתייגים פוסקים רבים מן הפעולה. הפוסקים מונים טיעונים רבים לאיסור תרומת זרע מגבר נוכרי וביניהם חילול השם, פגיעה בביצוע מנהג הייבום והחליצה, ספקות לגבי זכויות הירושה, עידוד ההפקרות המינית ופגיעה ביציבות התא המשפחתי המסורתי. בנוסף חוששים הם מבלבול לגבי זהות אבי הילוד ופגיעה במעמד הכהונה. במהלך המאה ה- 20 ניכרת מגמה בקרב פוסקים העוסקים בקבלה לייחוס תכונות שליליות לזרע נוכרי, אשר עוברות לילוד ובאופן זה פוגעות בקדושת העם היהודי. מעבר לשאלות ההלכתיות מועלים בפרק זה קשיים אתיים אשר מעוררת תרומת זרע אנונימית, המונעת מן הילוד לברר את שורשיו הביולוגיים.
חלק רביעי- יחס הפסיקה האורתודוקסית לשינויים במבנה המשפחה המסורתית
בעקבות שימוש בטכנולוגיות פריון חלק זה מנתח את יחס הפסיקה האורתודוקסית לשינויים במבנה המשפחה המסורתית בעקבות שימוש בטכנולוגיות פריון ומורכב משלושה פרקים: הזרעה מלאכותית לאישה פנויה, הפריה חוץ גופית והקמת משפחה אלטרנטיבית בפרספקטיבה הלכתית אורתודוקסית.
פרק ראשון - הזרעה מלאכותית לאישה פנויה
המוסכמה ההלכתית הינה כי ילדה של אישה פנויה לא ייחשב לממזר, אפילו אם אביו הביולוגי הוא יהודי. למרות זאת אסרו פוסקים מסויימים על הזרעה מלאכותית במקרה זה בגין חששות לייחוס הילוד, גילוי עריות וגזילת ירושת שאר האחים. חלק מן הפוסקים קוראים לאסור הזרעה מלאכותית לאישה פנויה בשם טובת הילד ולא מסיבות הלכתיות. אפשרות נוספת אשר השלכותיה ההלכתיות נידונות בפרק זה הינה ביצוע הזרעה מלאכותית באישה רווקה או אלמנה באמצעות שימוש בזרעו של אדם שנפטר. חשוב לציין כי השימוש בטכנולוגיה זו שנוי במחלוקת בקרב הרבנים בגין החשיבות אותה מייחסת היהדות לערך כבוד המת.
פרק שני - הפריה חוץ גופית
הפריית מבחנה יכולה להתבצע בין בני זוג נשואים בסיוע או ללא היזקקות לתרומת ביצית או זרע. פוסקים אשר התירו את השימוש בטכנולוגיה זו הביעו את חששותיהם בנוגע להשלכותיה ההלכתיות של הפריה החוץ גופית בשל הקושי לפקח על התהליך, הנעשה מחוץ לגוף האדם. מתנגדי הפריית המבחנה סברו כי היא מתערבת במלאכת הבריאה האלוהית ועשויה לדרדר את האנושות מבחינה מוסרית לתכנון ולשיבוט בני אדם.
הפריה חוץ גופית מעוררות שאלות הלכתיות חדשניות ובראשן שאלת הגדרת האמהות, כגון במקרי פונדקאות ותרומת ביציות, מהן הסתייגו מרבית פוסקי הדור במאה ה 20- . הקביעה שאומצה בשיח ההלכתי העכשווי גורסת כי אמו של התינוק תהיה האישה שילדה אותו, גם אם נולד מתרומת ביצית. הכרעה זו מובלעת ברציונל החוקים המסדירים את הפונדקאות במדינת ישראל ואשר מטילים מגבלות הלכתיות על בחירת הפונדקאית לשם מניעת חשש ממזרות או שאלה לגבי יהדותו של הילוד.
פרק שלישי - הקמת משפחה אלטרנטיבית בפרספקטיבה הלכתית אורתודוקסית
קיימת בעיה הלכתית מהותית במיסוד הקשר החד-מיני ביהדות האורתודוקסית. ספרות השו"ת האורתודוקסית אינה עוסקת במפורש בשאלת השימוש בהזרעה מלאכותית לצורך הקמת המשפחה החד- מינית. עם זאת, ניתן ללמוד רבות על גישת האורתודוקסיה משו"תים עכשוויים העוסקים בתופעת ההומוסקסואליות ובקיום מצוות הפריון במקרה זה. הדעה הרווחת היום בקרב הפוסקים הינה כי קשר חד- מיני אסור, כמו גם מיסודו וקיום מצוות פרו ורבו במסגרת זו. בשל כך ניתן להסיק כי הרבנים לא יתירו שימוש בהזרעה מלאכותית לצורך קיום מצוות הפריון במשפחה חד-מינית.
חלק חמישי- עמדת רבני הזרם רפורמי והקונסרבטיבי בשאלת ההזרעה המלאכותית
חלק זה מתמקד בזרמי היהדות הרפורמית והקונסרבטיבית ומציג את עמדות רבני זרמים אלו בעניין ההזרעה המלאכותית תוך עימותן עם עמדות פוסקים אורתודוקסיים.
פרק ראשון - עמדת הרבנות הרפורמית בשאלת ההזרעה המלאכותית
חשיבות מצוות הפריון מודגשת בספרות השו"ת הרפורמית, אולם טיפולי פוריות אינם מתפרשים כדרך היחידה לקיומה. על מנת שלא לפגוע במרקם החיים המשפחתי מוצעת לא אחת חלופת האימוץ לטיפולי פוריות מייגעים, תרומת זרע והיזקקות לפונדקאות ותרומת ביציות. שאלת השחתת הזרע, המעסיקה רבות את רבני הזרם האורתודוקסי, כמעט שאינה נידונה על ידי רבני הזרם הרפורמי. באשר לשאלות של כשרות וייחוס, רווחת הדעה בקרב רבנים רפורמיים בולטים כגון הרב הומולקה ורומיין, כי מעמד הממזרות איננו רלוונטי עוד בימינו ולכן ממילא לא נשקפת לילד הסכנה שזכויותיו הדתיות ייפגעו.
ועד הרבנים הרפורמיים התיר לחבריו לפעול לפי שיקול דעתם בעניין עריכת טקס נישואין דתי בין בני זוג בני אותו המין, תוך הדגשת הויכוח הפנימי בתנועה ומורת הרוח הקיימת מצד הזרמים האחרים ביהדות.
פרק שני - עמדת הרבנות הקונסרבטיבית בשאלת ההזרעה המלאכותית
עמדת רבני היהדות הקונסרבטיבית גורסת כי טיפולי פוריות מהווים רשות, אך אינם בגדר חובה עבור זוגות הרוצים לקיים את מצוות הפריה והרבייה ומתקשים בכך. בדומה לביטולה של גזירת הממזרות בזרם הרפורמי, בוטל מעמד זה לאחרונה גם ביהדות הקונסרבטיבית. אוננות במסגרת טיפולי פוריות הינה מותרת ואיננה מוגדרת כהשחתת זרע לבטלה ואף מותרת גם לשם תרומת זרע של יהודי לאישה לא יהודיה. כמו בזרם הרפורמי גם כאן מונחת אופציית האימוץ על סדר היום.
כנסת הרבנים הקונסרבטיבים בארצות הברית קיבלה החלטה ברוב זעום להכרה אזרחית בהומוסקסואלים, אך עם זאת השאירה על כנו את האיסור לקדש זוגות אלה. אין בהחלטה זו הכרה הלכתית בזוגיות החד-מינית אלא קבלתם החברתית של זוגות אלה ועידודם להשתלב בקהילות הקונסרבטיביות.
חלק שישי - סיכום ודיון בהשלכות המחקר
בחלקו השישי והאחרון בעבודת מחקר זו נסכם ונדון בהשלכותיה האתיות והגלובליולת של הפסיקה ההלכית בשאלה הנידונה.
כפי שניתן לראות מעבודת מחקר זו, הרבנים האורתודוקסיים מסתמכים בהכרעותיהם בעיקר על שיקולים הלכתיים ופחות על שיקולים אתיים ואוניברסליים. מחד, מסתייגים פוסקים אורתודוקסיים מסויימים משימוש לרעה בטיפולי פוריות, אך מאידך מוכנים הם בשם עקרונות דתיים להתיר שימוש בטכנולוגיות אלו במקרים שאינם מצריכים זאת משיקולים רפואיים. במיוחד בולט העדר התייחסותם של הפוסקים האורתודוקסיים לשיקולים מוסריים חברתיים, כמו גם לרצונה ולרווחתה של האישה העוברת טיפולי פוריות. לעומתם מביעים רבני הזרם הרפורמי והקונסרבטיבי את דאגתם להשלכותיהם של טיפולים אלו על נשים הנזקקות להתערבות רפואית מעין זו לשם התעברות ואלו העובדות בתעשיית הפריון. יש לציין כי הדיון ההלכתי עוסק בהיבט צר בלבד של שאלת ההזרעה המלאכותית ואינו נוגע ברבות מן השאלות המורכבות שמעוררות טכנולוגיות פריון מתקדמות. עם זאת הדיון ההלכתי הינו חשוב ביותר ומציף אף שאלות נוספות בדבר הסכנה הצפויה מהפיכתן של טכנולוגיות אלה לכלי שרת בידי אידאולוגיות דתיות או פוליטיות.
מחקר זה עוסק במשנתו החדשנית של ר' צדוק הכהן מלובלין. לפי רוב החוקרים, ר' צדוק ממשיך את משנת רבו, ר' מרדכי יוסף ליינער מאיזביצה, ומציג פטליזם אקזיסטנציאליסטי: לאדם יש חופש כנגד החוק המקובל, לפי רצון האל הנגלה בליבו, אפילו בתשוקותיו, החורג מההלכה; ואולם, האדם אינו קובע את הרצון המתגלה בשורש נשמתו, אלא חושפו בלבד. בכתבי ר' צדוק ניתן למצוא ביטויים רבים, בתוכן ובצורה, לפטליזם זה; עם זאת, הוא מציג גם התבטאויות רבות בדבר הבחירה האנושית החופשית וכוחה היצירתי לכונן ולקבוע את שורשו של האדם, ולחדש ולהשפיע על העולמות האלוקיים ועל העולם-הזה. מחקר זה מתמקד בקטעים אלו שמרכזיותם הוזנחה במחקר עד כה, ומכאן הבנתו המחודשת במשנתו.
את עמדת ר' צדוק ניתן להסביר באמצעות התפיסה הפרדוקסלית, הטוענת לכוחם המלא של שני הקטבים הסותרים ואף להשפעה הדדית ביניהם, היוצרת מתח קשה אך פורה: בניגוד לתהליך הפורמלי, האניטלקטואלי והאפריורי של הפטליזם, שבו 'הידיעה' האלוהית מבטלת את 'הבחירה' האנושית החופשית, ר' צדוק מציג פטאליות, המזהה המציאות עצמה את הידיעה והרצון האלוהיים המצויים בכל. בפטליות זו הידיעה אינה מבטלת את הבחירה; להיפך: ללא הידיעה האלוקית אין לאף דבר קיום, ולכן רק מציאות הידיעה בבחירה היא המאפשרת את קיומה הממשי.
תפיסתו האונטולוגית של ר' צדוק מתקיימת לא רק בתוכן הישיר של דבריו, אלא גם בעקיפין, באופן דרשנותו ובמובן שהוא מעניק למושגים שבהם הוא דן; לכן, הפטליות מתגלה גם בתחומים נוספים, שבהם מצוי פער בין הממד המוחלט וההכרחי ('ידיעה') לממד הקונטינגנטי, הארעי והיחסי ('בחירה'): השקר, הדמיון, הרוע, החטא, הייסורים ועוד, אמנם קונטינגנטיים ויחסיים לעומת מוחלטות האמת, הטוב וכו'; אך לפי ר' צדוק, האל רוצה בהם ככאלה – כלומר יש להם ממשות שאינה מוחלטת, אלא ממשות ככאלה, כקונטינגנטיים. אך ממשות זו אינה מאשרת אותם כפי שהם, אלא יוצרת בהם-עצמם טרנספורמציה. למשל, הרוע אינו הופך לטוב מוחלט או נותר כרוע, אלא הופך ל'טוב מאד' שלפי ר' צדוק גדול מהטוב הרגיל.
מכאן עולה גם ההשפעה ההפוכה, זו של הבחירה על הידיעה. לפי ר' צדוק, משקבלה הקונטינגנטיות והיחסיות של 'הבחירה' – שהיא למעשה מהות הבריאה ומהות האדם ומעשיו – את ממשותה, בכוחה אף להוסיף כביכול על המוחלטות האלוקית הקבועה של 'הידיעה': 'נגע' החטא או הייסורים הופך בעצמו, בחילוף אותם אותיות, ל'ענג' הגדול מההנאה הרגילה; בכוח האדם להשפיע על העולמות העליונים בגזירת גזירות ובביטול גזירות אלוקיות; בכוחו אף להשפיע על העולם-הזה, בחידושו היומיומי על-ידי חידושי התושב"ע, ובקידוש החודש המסוגל לשנות את תנועת המזלות השמימיים. מצד אחד, היצירתיות האנושית של חידושי התושב"ע כלולה באמת האלוקית הגנוזה בתושב"כ האלוקית והיא רק חושפת אותה; אך לפי ר"צ, מצד אחר מתברר שמקור חידושי התושב"ע דווקא גבוה ממקור התושב"כ והם אלו היוצרים וקובעים אותה.
ר' צדוק מציג שני מושגים מרכזיים לפרדוקס שלו: בממד האונטולוגי – 'הייחוד הגמור' של האל, שבו הדואליות הקונטינגנטית (בין האל לנבראיו, והבחירה שהיא מאפשרת) של 'הייחוד התחתון' מתקיימת פרדוקסלית עם האחדות המוחלטת ו'הידיעה' האלוהית של 'הייחוד העליון'.
בממד של מצבו האקזיסטנציאלי של האדם – 'השורש הנעלם': בניגוד לר' מרדכי יוסף רבו, ר' צדוק טוען שהאדם קובע את גורלו על-ידי מעשיו הבחיריים והקונטינגנטיים; ואולם, במקביל, בדומה לרבו, הוא טוען גם שהשורש הקבוע של האדם נקבע על-ידי 'הידיעה' האלוהית והיא זו הקובעת את מעשיו לטוב או למוטב. אך מעל אלו מציג ר' צדוק שורש נוסף, 'נעלם' הגבוה מהשורש הקבוע: הוא אכן שורש מוחלט ('ידיעה'), אך הוא נקבע ומכוּנן על-ידי מעשיו הבחיריים של האדם, בדומה לבריאה האלוהית 'יש מאין'.
עבירה לשמה
(2014)
A Transgression for the Sake of God -‘Averah li-shmah: A Tale of a Radical Idea in Talmudic Literature
All cultures, religions, and ethical or legal systems struggle with the role intention plays in evaluating actions. The Talmud compellingly elaborates on the notion of intention through the radical concept that “A sin committed for the sake of God [averah li-shmah] is greater than a commandment fulfilled not for the sake of God [mi-mizvah she-lo li-shmah].” The Babylonian Talmud attributes this concept—which challenges one of rabbinic Judaism’s most fundamental dogmas, the obligation to fulfill the commandments and avoid sin—to R. Nahman b. Isaac (RNBI), a renowned 4th century Amora. Considering the normative character of the rabbinic culture in which Halakhah (Jewish religious law) plays such a central role, this concept, seems almost like a foreign body in the Talmudic corpus.
The study focuses on the linguistic stratum of RNBI’s statement. By tracking the development of the meanings and uses of the word ‘li-shmah’ the research locates RNBI’s statement as part of the broader Talmudic discourse evaluating two levels of performing religious actions ‘li-shmah/she-lo li-shmah’. Since we wish to explain the word ‘li-shmah’ consistently both times it appears in the statement, the best translation would be ‘for the sake of God’. This translation is based on the linguistic connection between the word ‘li-shmah’ and the term ‘le-shem shamayim’ (for the sake of God) that appears in several rabbinic sources. This linguistic connection is also the key to identifying the possible root of RNBI’s concept. RNBI bolsters his idea by quoting a verse about Jael, thus implying that Jael sinned for the sake of God. The research describes at least five statements in Sages’ Literature that attribute sins for the sake of God to other biblical figures, all the while using the term ‘le-shem shamim’. Therefore we may presume that RNBI’s concept has evolved from the exegetical notion of attributing sin for the sake of God to biblical figures.
To understand the way RNBI’s statement was accepted in Talmudic culture, we must explore the textual witnesses to the literary frame of RNBI’s statement: the Talmudic sugya (Nazir 23a; Horayot 10b). We possess five versions of the sugya’s dialectical structure. Comparison of these versions, allows us to reconstruct the earlier dialectical structure, from which the familiar versions developed. The radical potential of RNBI’s statement led to cultural activity, in the transmission of the sugya, in an effort to mitigate it. This activity is reflected in late additions to the sugya identified by our research—which should be viewed as a process of self-censorship for ideological reasons.
This research explores a fundamental issue in rabbinic world: the immanent contradiction between law and intention. The research depicts in detail the movement of a radical idea from the margins culture to mainstream - in this case into the Babylonian Talmud. Therefore, the findings of this research provide substantial insight into our understanding of the interpretive process and of conceptual adaptation in rabbinic culture.
מחקר זה מתמקד במשנתו ההלכתית של הרב כלפון, כפי שהשתקפה בחיבוריו 'שואל ונשאל' ו'ברית כהונה' שהם ספרי שו"ת (responsa) הפורשים היקף נרחב של יחסיו לתמורות שחלו באותן שנים בקהילה היהודית באי ג'רבה שליד תוניס. נבחנים יחסו למודרנה, לחינוך כללי, למעמד האשה ועוד. כמו"כ נבדקה דרכו ההלכתית, הדומיננטיות שהעניק למסורת הג'רבאית גם לעומת פסיקותיו של רבי יוסף קארו.
תקציר העבודה
בערב יום העצמאות 1967, שבועות אחדים ערב מלחמת ששת הימים זעק הרב צבי יהודה קוק (1891-1982) "איפה חברון שלנו – אתם שוכחים את זה?! ואיפה שכם שלנו – אנחנו שוכחים את זה?! ואיפה עבר הירדן שלנו איפה כל רגב ורגב? כל חלק וחלק, של ארבע אמות ארץ ד'. הבידינו לוותר על איזה מילימטר מהן? חלילה וחס ושלום"
דבריו הנחרצים של הרב, יחד עם כיבוש שטחי הגדה המערבית, חברון שכם וירושלים כמו גם חצי האי סיני ורצועת עזה במהלך ששת ימי הלחימה ביוני 1967, הביאו להתפרצות העוצמתית ביותר של תחושת פעמי משיח בקרב הציבור הציוני דתי. וכפי שצויין בדבריו של הרב ישראל אריאל, בואו של המשיח היה עניין של שעות אחדות.
אולם כעשר שנים מאוחר יותר בשנת 1978, חתמה ממשלת ישראל על הסכם שלום עם מצרים. במסגרת הסכם השלום, הוחזרו כל שטחי חצי האי סיני לידי המצרים ופורקה ההתיישבות בחבל ימית . תושבי חבל ימית נעקרו מבתיהם (בהם התגוררו משנת 1971- אפריל 1982). גם הציבור הציוני דתי נאלץ למצוא הסברים לכך שמדינת ישראל פועלת בניגוד לציפיות שנתלו בה מבחינת היותה אבן דרך בדרך לגאולה.
תלמידיו של הרב צבי יהודה קוק, שרובם כבר החזיקו במשרות רבניות. חוו את חוויית העקירה בשיא פועלם. הרב צבי ישראל טאו, מתלמידיו הקרובים של הרב צבי יהודה קוק, אסר על תלמידיו להשתתף בהפגנות. הוא פסק כי חייבים לכבד את החלטת הממשלה שנבחרה על ידי רוב יהודי. הוא דבק בדבריו של הרב צבי יהודה קוק כשאמר "העם לא איתנו" ו"דינא דמלכותא דינא" בייחוד כשמדובר בממשלה יהודית הנבחרת על העם.
אולם השבר הגדול, כפי שמוטי ענברי כתב "the profound theological crisis " היה ההתנתקות מרצועת עזה בשנת 2005. הקושייה היתה - האם מדינה שעוקרת התיישבות יהודית ומוסרת שטחים מארץ ישראל לידי אויביה, יכולה עוד להיקרא מדינה קדושה.
הדיסוננס הקוגניטיבי במסגרת ההתנתקות מרצועת עזה
כדי להבין את משבר ההתנתקות – יש לחלקו לשניים. האחד: המשבר האמוני כלפי המדינה – הציבור הציוני דתי החזיק באמונה כי זאת המדינה שהיא "יסוד כיסא השם בעולם" וזאת המדינה "אותה חזו הנביאים " (דבריו של הרב צבי יהודה קוק בעקבות אכזבתו מהעדרם של המקומות הקדושים בשטחה של מדינת ישראל, לפני מלחמת ששת הימים).
והמשבר השני הוא: המשבר האמוני כלפי האלוקות אשר "איפשרה" לתוכנית זאת לצאת לפועל.
ישנו, אם כן, את הקונפליקט כלפי החלטות המדינה החילונית הקיימת לבין התפיסה האמונית המתעקשת לראות אותה כמדינה קדושה. וכן הקונפליקט כלפי האמונה בה הם מחזיקים – אשר לפיה, עם ישראל נמצא בשעת גאולה וזו הולכת ומתעצמת לקראת בואו של המשיח. לפי תפיסת מציאות אמונית זו - תוכנית ההתנתקות אינה אמורה להתממש כלל.
וזו אכן התממשה. אם כן, כיצד התגבר ציבור זה ושיקם את התפיסה האמונית שלו כלפי האלוקות, זאת שאלה אחת. והשאלה השניה כיצד הוא שיקם את יחסו כלפי המדינה, והאם הוא עדיין רואה בה את "זאת המדינה שחזו הנביאים".
השתמשתי בתיאוריית הדיסוננס הקוגניטיבי של ליאון ופסטינגר ועמיתיו כדי לנתח ולהעריך את המשבר האמוני שעבר ציבור זה. מאמריו של ענברי וניתוחו את המשבר האמוני שחל בקרב הציבור הדתי ציוני בתום תוכנית ההתנתקות. שימשו גם כן כלי בעבודה זו, על מנת להעריך את ההתפתחויות הנוספות שחלו בקרב הציבור הזה במלאת עשר שנים מאז מימוש תוכנית ההתנתקות. כמו גם הופעת אירועי האלימות והטרור המכונים "אירועי תג מחיר".
לפי חמשת העקרונות של פסטינגר ועמיתיו ניתן לצפות שחברי קבוצה כלשהיא יגבירו את להט האמונה בעקבות הפרכת אמונתם, כלומר "כישלון הנבואי" במידה ומתקיימים חמשת התנאים הבאים: 1. על האמונה לנבוע מתוך שכנוע עמוק ועליה להיות רלונטית לפעולה שהמאמין עושה או איך שהוא מתנהג, 2. המאמין, האדם המחזיק באמונה זו חייב למסור את עצמו למענה, עליו לבצע החלטות חשובות שלא ניתן לבטלם. ככל שהפעולות חשובות יותר, וככל שקשה יותר לבטלם, כך גדלה בהתאמה המחוייבות של הפרט לאמונה. לדוגמא: להתפטר מעבודה, לעבור דירה. 3. האמונה חייבת להיות ספציפית למדי ומעורבת מספיק במציאות כך שאירועים מציאותיים יכולים באופן חד משמעי להפריך את האמונה. 4. אירוע הסותר את האמונה חייב להתרחש ולהיות מזוהה על ידי הפרט המאמין. 5. המאמין חייב לקבל תמיכה חברתית, כמעט לא יתכן שפרט מאמין מבודד יכול יהיה לעמוד בפני ראיות סותרות שהדגשנו מעלה.
בהנתן חמשת התנאים האלו, יש לצפות שהפרט המאמין -החבר בקבוצה של פרטים המשוכנעים באמונתם ויכולים לתמוך אחד בשני, ימשיך להחזיק באמונתו באופן יציב, ובנוסף, הוא וחבריו ימשיכו לגייס מאמינים חדשים.
אולם בניגוד למקרים שנבחנו על ידי פסטינגר ועמיתיו, תוכנית ההתנתקות מרצועת עזה, התאפיינה בכך שתאריך הפינוי לא נקבע על ידי מנהיגי הציבור הציוני דתי, אלא על ידי ראש ממשלת ישראל דאז אריאל שרון. הוא החליט יחד עם ממשלת ישראל על פינוי רצועת עזה ב15 באוגוסט 2005 (י' באב תשס"ה) מכל תושביה היהודים, פירוק הבסיסים הצבאיים וחיסול כל סממן של ריבונות ישראלית בה. יש כאן בעצם, תמונת תשליל, אירוע קיצוני עם תאריך יעד מוגדר שהציבור הציוני דתי נלחם כדי לבטלו.
תגובות הרבנים, תגובות שנבחנו על פי תיאוריית הדיסוננס הקוגניטיבי של המתנחלים לפני הנסיגה ולאחריה
בעבודה, בחנתי את תיאולוגיות רבני הציונות הדתית הפעילים ביותר בתקופה מדוברת זו והם: הרב דב ליאור, הרב זלמן מלמד, הרב צבי ישראל טאו, הרב חנן פורת ז"ל והרב שלמה אבינר. התיאולוגיות נבחנו לפני ההתנתקות ולאחריה, כמו גם עשר שנים לאחר ההתנתקות. בין השאלות שנבחנו הם: כיצד השתנה היחס לממלכתיות, האם יש חובה לסרב פקודה, כיצד הם נימקו את הגזירה לציבור תלמידיהם. בנוסף לכך, נבחנה תופעת ה“תג מחיר“, בדקתי האם היא תוצאה ממשבר ההתנתקות מרצועת עזה או המשך ישיר של התפתחות "תנועת גוש אמונים" וההתמודדיות היומיומית בין המדינה הממשית החילונית לבין המדינה הדתית האוטופית, אליה הם שואפים. כמו כן בחנתי את יחסם של הרבנים כלפי הפעילים בטרור זה, כלפי הפלסטינים וכלפי הצבא.
הרב דב ליאור
הרב דב ליאור, היה רב הישוב קרית ארבע - חברון וראש ישיבת ההסדר ניר שבמקום. נולד בשנת 1933 בירוסלב בגליציה למשפחת חסידי בעלז, בשנת 1939 עם פרוץ הכוחות הגרמניים לפולין, נמלטה משפחתו לרוסיה. בשנת 1948 עלה באוניית המעפילים "נגבה" לארץ ישראל, ובשנת 1949 עבר לישיבת "מרכז הרב" בירושלים, ולמד עם הרב צבי יהודה קוק. הרב ליאור היה הרב הראשון שנשלח על ידי הרב צבי לכהן כרב הישוב כפר הרא"ה, ומאוחר יותר עבר לקריית ארבע, שם הוא כיהן כרב היישוב עד לפרישתו.
גישתו להחלטה על ההתנתקות מרצועת עזה היתה: "אחרי עשרות שנים של חוסר חינוך" תוצאה היא –"התנתקות מארץ ישראל". אולם על הציבור הציוני דתי: "לבלום את הרשעות הזאת. [...] אם זה יבוצע זה עלול לפגוע בקיומנו כעם וקיומנו כמדינה". הדרך להיאבק לשיטתו היא: "בהתנגדות פסיבית". למרות שהציבור הציוני דתי הוא ממלכתי "דינא דמלכותא דינא" אבל לא דבר שכנגד תורת ישראל, אם ממשלת ישראל מחליטה להרוס ישוב ולהסגיר שטח לידי האויב, יש להראות זאת כגזירה וצריכים לעמוד כנגד זה מכל המשתמע מכך. [...] הם יכולים לקבוע בענייני מיסים, מהירות הנסיעה.
החזון, לפי הרב ליאור הוא ש "לא ירחק היום והציבור שלנו יחליט בכל מערכות החיים הציבוריים, במשפט בכלכלה. לדעתו: "מערכת המשפט זה החילול הגדול שיותר שיש במדינה. להתכונן לקראת הנהגת עם ישראל ואם הציבור שלנו יקח את ההנהגה יהיה שלום אמת, אימתם של ישראל תהיה מוטלת על כל המחבלים ותורת ישראל ברוחה והשפעתה תהיה ניכרת בכל תחומי חיינו הציבוריים. נעבור את התקופה הקשה הזאת ולא ניפול ביאוש ונזכה לראות בישועת ה'" . מצד אחד הרב ליאור קרא למאבק שהכלים שלו אינם סטדנדרטים שדרש שלא ללכת כמו צאן ולקרוא על החלטות הכנסת "קדוש". ומצד שני הוא קרא למאבק פסיבי. מאחרית דבריו של הרב ליאור במאמר לעיל בפסקה האחרונה, ניכר כי הוא השלים עם הגזירה של תוכנית ההתנתקות ונותר רק לקרוא לציבור הציוני דתי לקחת את ההנהגה לידיים.
לאחר ההתנתקות
כחודש לאחר ההתנתקות, בכנס שנערך ב- ג' באלול תשס"ה, הביע הרב ליאור את דעתו. הוא נתן במה לשאלות ולטרדות שקיימות בקרב הציבור הציוני דתי, כמו איך להתייחס למדינה, האם להתנתק ממנה, האם יש צורך לפשפש במעשינו, לחזור בתשובה? "ומכאן עולות שאלות כבדות משקל: האם אנחנו חטאנו, האם אנשי הגוש חטאו, האם עם ישראל חטא. אנחנו מחפשים מהי בדיוק נקודת החולשה, לא מתוך כוונה להטיל אשמות במישהו, אלא כדי לדעת לתקן."
הוא הוסיף כי: "מי שחש את פעמי הגאולה, לא ייפול בייאוש ובחולשת הדעת גם במצבים של מעין נסיגה. לא נאבד בגלל זה את האמון שלנו במהלך האלוקי הגדול של שיבת עם ישראל לארצו. כמו כן, הרב ליאור כתב בגליון י' של ירחון „קומי אורי“ בעקבות המלחמה בלבנון השניה בשנת 2006: "אין לי ספק שהיסורים הקשים שפוקדים את עמנו במלחמה הזאת, שנמשכה למעלה מחודש, באו בעקבות הפשע החמור לפני כשנה, הגליית היהודים מגוש קטיף, החרבת ביתם והסגרת חבלי ארץ לידי אויב "
לפי הרב ליאור אין צורך בתשובה או היטהרות, או חזרה לערכים שננטשו, אלא הסבר תכליתי מחודש לאירוע ה'הכישלון הנבואי'. מדבריו של הרב ליאור לפני ההתנתקות, הוא הניח שתוכנית ההתנתקות יכולה להתבטל, וזה תלוי במאבק של מיישמי התוכנית, כלומר החיילים והמפקדים. במידה והם יסרבו פקודה, אז התוכנית תתבטל.
הרב זלמן ברוך מלמד
הרב זלמן ברוך מלמד, נולד בתל אביב בשנת 1937. הוא ראש ישיבת בית אל וממקימי ערוץ 7 ואתר האינטרנט Yeshiva, אתר האינטרנט הראשון להפצת שיעורי תורה של רבני הציונות הדתית. הוא למד בישיבת "מרכז הרב" אצל הרב צבי יהודה קוק משנת 1954. לאחר כעשר שנים כתלמידו הקרוב, הוא התמנה לר"מ (רב ומלמד) בישיבה. בשנת 1978 נשלח בתמיכת הרב צבי יהודה קוק להקים ישיבה בבסיס הצבאי שליד בית אל. מאוחר יותר הוקמה במקום ההתנחלות בית אל.
לפי גישתו, המאבק על גוש קטיף הוא מאבק סמוי שיש בין שני חלקי העם: "אין כאן הבדלים פוליטים של הערכות מדיניות אם הצעד הזה נכון או לא נכון. לא זו המחלוקת, אלא איזה מהות תהיה למדינה - מדינה לכל אזרחיה חסרת זהות או מדינה יהודית בעלת תוכן יהודי" . הוא ציין שמדובר ב"משבר זהות הציונות", משבר שחל בקרב חלק מהציבור וכעת מתנהל מאבק בין שני חלקי ציבור זה.
יחסו לסירוב פקודה היה ברור: "ואני אומר לצבא ולשוטרים, אם תכשלו ולא תוכלו לעקור את הישובים, הצלחתם. אתם יכולים כבר עכשיו לומר שזו משימה בלתי אפשרית וכבר עכשיו להצליח, צה"ל לא צריך לנצח את היהודים, צה"ל צריך לנצח את האוייב." הרב מלמד קרא לשוטרים וחיילים לסרב פקודה על מנת לעשות הכל כדי לסכל את תכנית ההתנתקות.
לפי גישתו האמונית: "המכות האלו שאנו מקבלים הם מפני שהשקפת השמאל החילוני מתרסקת, אין קיום לעם ישראל בלי אמונה, ותוך כדי פרפורי הגסיסה של השמאל הוא מכה בכוחותיו האחרונים. לאחר מכן תקום הנהגה יהודית אמונית שתוביל את המדינה לקראת הגאולה "
הרב חנן פורת (1943-2011)
חנן פורת היה ממייסדי תנועת "גוש אמונים". הוא הגיע לכפר עציון עם משפחתו בשנת 1943 בהיותו בן חצי שנה. המשפחה פונתה מכפר עציון בהיותו כבן שש בתחילת מלחמת העצמאות, 1948. מאוחר יותר למד חנן פורת מספר שנים בישיבת "כרם ביבנה", לפני שעבר יחד עם גרעין הגחלת לישיבת "מרכז הרב". שם למד עם הרב צבי יהודה קוק. בשנת 2000 ייסד הרב פורת את עלון פרשת השבוע "מעט מן האור", בו פירסם חידושי תורה. העלון חולק חינם בבתי כנסת בכניסת השבת והופיע עד שנת 2014 (כשלוש שנים לאחר מותו).
תגובתו לפני ההתנתקות: "אנו קוראים לכל הדבקים בארץ ישראל, ולכל המאמינים בחי-עולמים וזורעים: אל תגררו אחרי קמפיין-תקשורתי זה שכל מגמתו להעצים את הציפיה ל'יום פקודה' ולקובעו כעובדה מוגמרת כבר עתה. [...] אנחנו ממשיכים יום יום לנטוע ולזרוע, ובזכותם יהפוך בעזרת ה' יתברך יום הפקודה, מיום 'בשורת איוב' ליום 'בשורת גאולה'."
הרב פורת קרא להמשיך ולפעול כרגיל ולא להתייחס להוראות הפינוי על כל סעיפיהם, (פנייה למנהלת ההתנתקות על מנת להסדיר מקום חלופי כמו גם אומדן הרכוש לצורך קבלת כספי הפיצויים). הוא התנגד לאלימות, והסביר כי פעולות אלימות נובעות מכעס שאין לו מקום: "שלטון הכעס על האדם הריהו חלילה בבחינת שלטון זר של אל נכר"
בעלון הראשון של הגליון "מעט מן האור" אשר הופיע זמן קצר אחרי ההתנתקות, באה לידי ביטוי תגובת האבל החריפה על האובדן של ההתיישבות בגוש קטיף, אך יחד איתה גם נבואת נחמה: "עשינו מה שגזרת עלינו, עשה אתה מה שעליך לעשות!" "בחסדי ה' יתברך עוד נשוב לגוש קטיף לבנות ולהבנות בו, חרף הייסורים שראו עלינו מידי אדם ובשובנו בשנית...והפכתי אבלם למחול ושימחתים מיגונם" (ירמיה ל"א ז-יב) .
אכזבתו ממוסדות המדינה בעקבות הגירוש, בא לידי ביטוי בעלון שיצא כחודש לאחר ההתנתקות. "הריקבון הזה - שפשה בכל רקמות השלטון, מחייב אותנו לחשבון נפש עמוק ונוקב, באשר ליחסינו לכל הנהגת המדינה, ולא רק כלפי העומד בראשה."
במלאות חמש שנים להתנתקות, הוא התייחס לכישלון המאבק בשיחה שהתנהלה בדצמבר 2009 ב"מכון מאיר" בין הרב פורת לבין חגי לונדין. בשיחה – "הוא הירבה להתייחס לפסוק "ושבו בנים לגבולם" שהינו חלק מנבואת הנביא ירמיהו לגבי שיבת עם ישראל לארצו. "התגשמות החלום של ילדי כפר עציון שידענו שיום יבוא ואנחנו נשוב". "עקירת הישובים היא פצע פתוח שותת דם. כדאי לא לשכוח שמעבר לפגיעה בזכויות האדם, היא העובדה כאילו סטרו בפרצופה של רחל שאלוקים הבטיח לה בנבואה "ושבו בנים לגבולם"". מבחינתו של פורת - הציונות החילונית היתה מבחינת החוצפה כלפי שמיים, של "אנחנו נעקור בנים מגבולם".
הרב שלמה חיים אבינר
ראש ישיבת עטרת ירושלים, השוכנת ברובע היהודי וגם רב הישוב "בית אל" א', נולד בצרפת בשנת 1943 ועלה לישראל בשנת 1966. לאחר שירותו הצבאי הצטרף לישיבת "מרכז הרב“. לאחר מלחמת ששת הימים, הצטרף לקבוצה ששהתה במלון "פארק" במטרה לחדש את הישוב היהודי בחברון (אפריל 1968). לימים, רב הישוב קשת ברמת הגולן. ומשנת 1981 ועד היום, רב הישוב "בית אל" א'.
מבחינת הרב אבינר התגשמות הגאולה הארצית חלה על ידי ייסודה של מדינת ישראל ומוסדותיה על אדמות ארץ ישראל. הוא הדגיש ומדגיש את "קדושת הממלכתיות", וזאת באה לידי ביטוי ביחסו לצבא, להחלטות הממשלה ולחוקיה. מבחינתו אלה הם בגדר קודש, שאין לערער עליו. אולם מצד שני, הוא קרא לסרבנות אזרחית, לא לשתף פעולה אזרחית עם מנהלת ההתנתקות בכל שלבי הפינוי. ואף קרא לחרם צרכני על אותם אזרחים המשתפים פעולה עימה. בפרק על הרב אבינר בעבודת הדוקטורט, התייחסתי גם לנושא 'מסירות הנפש'. נושא שהתמלא בתוכן חדש, זאת לראשונה על ידי הרב צבי יהודה קוק ותלמידיו.
למרות שהרב אבינר ראה את עצמו כרב בעל גישה ממלכתית ולא פסל את הקריאה לסרבנות. הוא היה בין הכוחות המסייעים אקטיבית להרגעת הציבור המפונה, כשתפקידו היה למנוע את ההתנגדות לפינוי. בנוסף לכך, הרב אבינר קרע את בגדי הציבור המפונה, לאות אבל.
הרב צבי ישראל טאו
לפי תיאולוגיית הרב טאו, שורש הסיבה לגזירת ההתנתקות היא ההתנתקות מהחילונים, אותם הוא מכנה "המנותקים מן הקודש". אנשים שמבחינתו שייכים לעם ישראל, אך ריקים בתוכנם ולכן האובססיה שהם גילו כלפי תוכנית ההתנתקות מהווה עבורם חלופה לאובססיה דתית: "רוממות הרוח שבאה בעקבות 'מלחמת ששת הימים' שככה במהרה, ואת מקומה תפסו הספקנות וחוסר הודאות בכל השייך לענייננו הלאומי. [...] כיצד נקלענו לשבר אידיאלוגי כה עמוק עד כדי 'פוסט ציונות' מוצהרת ועד כדי 'תוכנית ההתנתקות' בימינו". לפי הרב טאו יש חשיבות גדולה להבנה, שהעולם בשיח תמידי המתנהל פנים מול פנים. כלומר ברגע שישנו ניתוק בעם מן התכלית האמיתית, אזי מאיימת תוכנית התנתקות חיצונית. וזאת אמורה לעורר את האומה כולה לחשיבה מחודשת לחזרה לעקרונות, וממנה לעשייה.
"לכן, לא בחסימת כבישים ובהפגנות אלימות וכוחניות נהיה פועלים עם אל לישועת עמנו, פעולה זו מתייחסת לסימפטומים ולתופעות החיצוניות ולא לשורשיהן וסיבותיהן, וכמוה כנשיכת הכלב את המקל". הוא המליץ לתלמידיו, להתרחק מן הזעם (הפגנות וחסימת כבישים) ומהיאוש: "התמלאות בזעם וביאוש מזיקה לכל המצב הכללי, ומוסיפה נפילה על נפילה.
התייחסותו לסירוב פקודה:
הרב טאו התנגד לסירוב הפקודה, מאחר ולהשקפתו אין לנשוך במקל המכה, אלא להאבק בשורש הבעיה, שהיא הניתוק בעם. אלא שככל שתוכנית ההתנתקות קרבה למועדה המתוכנן, חל שינוי בהשקפתו. החוקר יאיר שלג, התייחס לשינוי הזה במאמר שפירסם ב"הארץ": "הסרבנות האפורה של הרב טאו" לפיה: "סרבנות מפורשת אכן אסורה, אבל על התלמידים להבהיר למפקדיהם ש"אינם מסוגלים" למלא פקודה מעין זו."
הרב טאו קרא למאמיניו תלמידיו ותומכיו שלא להתנגד לסירוב פקודה, אלא להמנע מקיום הפקודה. ומדברים שפורסמו כעשר שנים לאחר ההתנתקות בהם אמר הרב "לא היינו צריכים להיות בהתנתקות". הרב טאו האמין גם כן שלהתנתקות יש סיכוי טוב להתבטל, אם השורש והבסיס לקיומה יתבטל. כלומר, הוא האמין ביכולתו של הפרט בקבוצה לפעול למען כישלון תוכנית ההתנתקות. קריאתו של הרב טאו לפעולות "פנים אל פנים" על מנת לקרב את עם ישראל לאידיאולוגיה שלו, אפשר לראותה כקריאה לגיוס מאמינים, אולם קריאה זו נשארה רק בין כתלי בית המדרש.
כעשר שנים לאחר ההתנתקות מרצועת עזה
מסיכום הממצאים בעבודה זו, יש לציין כי - גם הרבנים שקראו לסירוב פקודה וגם הרבנים שקראו לכבד את החלטת הממשלה יישרו קו בסופו של דבר והם רואים את תוכנית ההתנתקות כמשבר מקומי. כמעט כל הרבנים, מלבד הרב טאו- טוענים שיש לראות את התמונה כולה שהיא בכללה חיובית. שהרי ההתיישבות היהודית ממשיכה להתרחב כמו גם עולם התורה ועולם הישיבות.
הרב חנן פורת ז"ל האמין שעם ישראל עוד יחזור למקומות מהם הוא גורש, כפי שקרה בעבר עם משפחתו אשר גורשה מכפר עציון.
הרב זלמן מלמד אמר במספר ניסוחים: "יש פה ושם צרה, אך החיבור שלנו לארץ-ישראל לא נעצר מלכת והוא הולך ומתחזק. הארץ נבנית בגליל ובנגב, בשרון ובשומרון ובכל רחבי ארץ-ישראל. יש מקומות שיש עליהם מאבק, אבל בסך הכול ההתרחבות וההתקדמות לא נעצרו"
הרב דב ליאור: "לא נאבד בגלל זה את האמון שלנו במהלך האלוקי הגדול של שיבת עם ישראל לארצו" .
הרב אבינר: "אך כאמור איננו מתייאשים, איננו עוסקים בהאשמה עצמית או בהאשמת הזולת ביחס לעבר, אלא מושכים קדימה אל העתיד מתוך כיסופים גדולים עוד יותר" .
הרב טאו: "המשך הבניין: אבל אנחנו מבינים שלא ביום אחד אפשר לבנות את ירושלים ואת גאולת-ישראל. לכן אבותיכם הלכו להמשיך את ההתיישבות כבר באותו לילה של הפינוי, ובבוקר כבר עלו על הקרקע בחבל חלוצה. הם לא נשברו. ודאי הם הצטערו על האובדן" .
אירועי „תג מחיר“
אולם יחד עם תמונה אופטימית זאת, קיימת התפתחות נוספת שאינה המשך ישיר של תלמידי הרב צבי קוק וישיבת "מרכז הרב". התפתחות אירועי האלימות והטרור המכונות „תג מחיר“.
כשלוש שנים לקח לציבור הציוני דתי להחלים ממשבר ההתנתקות ולתכנן תגובה נאותה כלפי אכזבתו העמוקה מהמדינה. אולם כבר בפינוי עמונה ב1 לפברואר 2006, מספר חודשים לאחר ההתנתקות, חלה תפנית חדה ביחס לקדושת החלטות המדינה. כשצעירי הציבור הציוני דתי פעלו בכל כוחם כדי למנוע את פינוי ההתנחלות עמונה. פינוי שהתבצע באלימות כוחות הביטחון. זאת בניגוד בוטה למאבק נגד ההתנתקות שהיה לרוב, נקי מאלימות .
פעולות „תג מחיר“ התחילו במהלך 2008 בעקבות פינוי מבנים במאחז יצהר. בכתבה שסיקרה את האירוע נכתב כי השיטה היא: "לגבות „תג מחיר“ גבוה על כל פעולה מסוג זה של הצבא או המשטרה". בפעולה הראשונה זו של „תג מחיר“: "נחסמו לתנועה צומת שילה, צומת הטי, צומת רחלים, חווארה, צומת חטיבת שומרון ועוד. ביצהר יודעים לספר שצה"ל הודיע שאין ביכולתו לשלוח כוחות לכל המקומות על מנת לעצור את המחאה, כך שהשיטה הוכיחה את עצמה. במקום התפתחו עימותים קשים בין יהודים לערבים, ושטחים גדולים של מרעה וזיתים נשרפו. גם בעסירה אל קבלייה התפתח עימות גדול ובמהלכו נשרף בית, תוך כדי שהצבא מודיע בקשר ש"אין לו כוחות לשלוח למקום."
אירועים אלו ניתנים לבחינה הן כתוצאה ישירה של תוכנית ההתנתקות והן כתופעה בפני עצמה:
• „תג מחיר“ השפעתה של תוכנית ההתנתקות על הציונות הדתית: הפעילים בפעולות אלו שייכים לציבור הציוני דתי ולאותם משפחות אשר גורשו מחבל גוש קטיף, ואשר חוו את המשבר באופן אישי ולא רק באופן פוליטי ואמוני. מכאן לקשר האפשרי שאירועי „תג מחיר“ הינם בעצם, תוצר ישיר של המשבר האמוני שחווה ציבור זה כתוצאה מההתנתקות מרצועת עזה. והם, הפעילים מביעים בצורה זו את חוסר האמון שלהם כלפי המדינה, כמו גם את יכולתה לקחת אחריות על עתידם. בדרך זו הם מביעים גם את האכזבה שחשו כלפי רבני הציונות הדתית הממלכתיים. שלדעתם, יישרו קו עם החלטת המדינה ואין הם עוד מוחים כלפיה - כפי שנקטו בתקופת ההתנתקות. חוסר האותנטיות של הרבנים, כפי שכתבתי על כך בפרק הסיכום בעבודה.
כחיזוק לכך ראו במאמרה של ענת רוט: "הציונות הדתית במבחן הממלכתיות – מכפר מימון לעמונה". בו היא מתארת את השינוי שחל בקרב הציבור הציוני דתי שתמך במדינה. ציבור אשר נמנע מאלימות מתוך אידיאולוגיה, ואת התעוררותו למציאות ביום שאחרי. התעוררות שהביאה לאלימות כפי שנחזתה. "משהוכח כביכול שניתן לנצח את המתנחלים ולפנות יישובים בנקל, במהירות ובלא אלימות, יגבר תאבונם של אלה ותיסלל הדרך להתנתקות הבאה". ,
• אירועי „תג מחיר“ – כתוצאה מהתפתחות רדיקליזם פוליטי בישראל: אירועי „תג מחיר“ יתכן והיו יכולים להתפתח ללא קשר להתנתקות מרצועת עזה. כפי שנראה במאמרו של דון יחיא אליעזר משנת 2003 . במאמרו, הוא ציין שההתנגדות למדינה היהודית החילונית, היא בעצם "הדיסוננס הקוגניטיבי" שהציבור הציוני דתי מנסה ליישב בתוכו. אולם ללא הצלחה רבה. הוא מפרט כיצד מערך הישיבות הלאומיות תרם רבות לתהליך הרדיקליזציה הפוליטית של הציבור הציוני דתי וזאת לפני שדובר על תוכנית ההתנתקות או פינוי מאחזים: "בגישת ההרחבה הפונדמנטליסטית בנוסח הרב קוק היה טמון מלכתחילה הפוטנציאל של רדיקליזם לאומי – פוליטי, שכן הרחבת תחומה של הקדושה הדתית בגישה זו והחלתה (של הקדושה,) על ערכי הלאומיות המודרנית עשויות להביא למאבק בלתי מתפשר למען המטרות הלאומיות, הנתפסות כחלק בלתי נפרד מן המכלול המקודש של עולם הערכים הדתי". בדבריו אלה של דון יחיא הוא תיאר את הרדיקליות המתבקשת במצב בו עלולה להתרחש התנגשות בין עולם הערכים הלאומי דתי לבין החלטותיה של המדינה. לפי דון יחיא, פעולות אלו - הן תוצאה של הקושי להכיל את החילוניות של מוסדות המדינה. קושי שקשה ליישבו ועל כן הוא מתפרץ בצורה של פעולות טרור. הפעילים מנסים כביכול, לפתור את הדיסוננס מתוכם, בדרך פעולות תג מחיר. דבריו נכתבו לפני ההחלטה על ההתנתקות מרצועת עזה.
• „תג מחיר“ – כתוצאה ממעבר בין תודעת מהגר לתודעת קולוניאליסט: דרך נוספת להסבר תופעת „תג מחיר“ היא: המעבר קטגורי ממצב של תודעת מהגר לתודעת קולוניאליסט. בנובמבר 1995, רצח יגאל אמיר את ראש הממשלה דאז יצחק רבין. הציבור הציוני דתי כולו הפך ברחוב כמו גם בתקשורת, לנרדף והואשם ברצח זה . המאבק הלא אלים בתוכנית ההתנתקות, היתה הזדמנות להראות לציבור החילוני ולמעצבי דעת הקהל, כי דוקא הציבור שנחשב לרצחני ואלים ונדחק הצידה בכלימה, נמנע מאלימות לחלוטין. ההנחה היתה שאם יעברו את המבחן, הם יתקבלו לקבוצת האליטה. כלומר, ההתרחקות מאלימות היתה כלי למטרה גבוהה יותר מאשר סיכול תוכנית ההתנתקות.
כמה שנים מאוחר יותר, בניהם של המשפחות שפונו מגוש קטיף ומרצועת עזה, חשים ביטחון בצדקת דרכם וקובעים סדר יום המתאים לעקרונותיהם ומעל הכל, לא מנסים למצוא חן. כלומר אצל נערי הגבעות חל תהליך של התקרבות ברמה ההתנהגותית לשבט הציוני החילוני, שניהם אינם מתנצלים ומשדרים ביטחון ויוהרה, כדמות היהודי החדש של בן גוריון. שתי קבוצות אלו: הציוני החילוני וקבוצת נוער הגבעות, שתיהן קוראות להקים יישות ציונית על האדמה שנכבשה מתושבים המקומיים.
לפי ההיסטוריונים החדשים המפעל הציוני הוא מפעל קולוניאליסטי: שהמשאב העיקרי בו הוא האדמה, מעבר לכך לא היה רצון להטמע בחברה המקומית הטבעית, בדיוק כמו הקולוניות הצרפתיות והבריטיות ברחבי אפריקה, שהיו מבודדות וניזונו מכוח עבודה זול של התושבים הטבעיים, תוך כדי ניצול משאבי המקום.
קבוצת המהגרים הלבנים – הבורים- שנטמעה במרחב הטבעי של דרום אפריקה והפכה לשליט על קבוצת הילידים בה, תוך דבקות בתנ"ך ובאדמה . היא נסיון להבין את העתיד האפשרי של נוער הגבעות ופעולות „תג מחיר“. בחינה של קבוצה זו, יכולה גם להסביר את דבקותם של נערי הגבעות בתורתו של הרב גינזבורג. שכן הרב גינזבורג הינו מהגר על פי הגדרה, הוא נולד בארצות הברית ועלה לישראל. אולם, זה לא מנע ממנו להרגיש שייך למקום בו לא נולד, ויתרה מזו לראות במקום זה כמקום הטבעי לו ולא לאותה אוכלוסיה שנולדה במקום וניהלה את חייה במשך דורות רבים בו.
כך בדומה לבורים בדרום אפריקה אשר נדדו למרכז היבשת על מנת לברוח מעימות עם הכובשים הבריטים ולבסוף החליטו לשתף עימם פעולה על מנת לקדם את עקרונותיהם, כך גם נדדו אנשי הציונות הדתית לשטחים הכבושים על מנת לחיות על פי חוקי אמונתם. משבר ההתנתקות הבהיר להם שעליהם ליטול חלק בממשל החילוני הישראלי ולהשפיע על החלטותיו.
התייחסות רבני הציונות הדתית לפעולות „תג מחיר“
הרב צבי ישראל טאו
התגובה לפעולות „תג מחיר“ נמצאה במאמרו של דר' גדי גבריהו יושב ראש הפורום "תג מאיר" בעיתון הארץ, פורום הפועל כנגד פעולות „תג מחיר“: "מוכרחים לחזור ולשנן דברים שאמר הרב צבי טאו - מנהיג ישיבות הקו - על אנשי המחתרת היהודית הראשונה(המחתרת היהודית פעלה בראשית שנות השמונים ונתפסה ב27.4.1984: "יש לנו עסק עם כת משיחית, שרוצה להביא את הגאולה לעם ישראל עם נשק ביד; [...]זוהי תפיסה של לומדי קבלה שטחיים, קטנוניים, והם גורמים בזה להרס ולחורבן" (חגי סגל, "אחים יקרים") . לפי מקור זה, הרב טאו, בהנחה שנשאר נאמן לדעותיו מאז ראה בפעילי „תג מחיר“, כת משיחית המעוניינת להביא גאולה לעם ישראל באמצעות אלימות, פגיעה באיסלאם או בחפים מפשע. והם אלו הפוגעים בתהליך הגאולה ומביאים לחורבנו.
הרב שלמה אבינר
באתר הציוני דתי "כיפה", פרסם אורי פולק את התייחסותו של הרב שלמה אבינר לפעולות „תג מחיר“, תחת הכותרת "אסור לפגוע ברכוש ערבי": "הויכוח שלנו עם הערבים הוא בשאלה של מי הארץ הזאת אבל זה לא מרשה לנו להעליב אותם, לגנוב אותם, או להציק להם".
הרב זלמן מלמד
לאחר מספר פעולות „תג מחיר“, הוא התייחס אליהן בשיעורו השבועי וענה שראשית כל, לפני שמגנים את הפעולה יש לבדוק האם המפגע הוא יהודי ואם אכן כן, אז לברר מהיכן הוא, כלומר מאיזה חוגים המפגעים מגיעים. הוא הוסיף כי, הפיגועים אינם מסייעים לציבור הציוני הדתי במטרתו, ואף "ויש סיכוי שזה מזיק" . תגובתו של הרב לא היתה נחרצת ואף ניסתה להפנות את פעולות אלה לשוליו של הציבור הציוני דתי.
הרב דוב ליאור
הרב ליאור והתייחסותו לפעולות „תג מחיר“: לא ניתן למצוא התייחסות מדוייקת של הרב ליאור לפעולות אלו. אולם חשוב לציין שהוא נעצר בחשד להסתה מאחר ונתן את הסכמתו ואת המלצתו לספר תורת המלך המתאר את האופן ההלכתי המאפשר לפגוע בשאינם יהודים.
עלייתו של הרב יצחק גינזבורג
הרב גינזבורג דוגל בשני עיקרים: ארץ ישראל השלמה והמשיחיות. את רעיון "ארץ ישראל השלמה" הוא לא רואה כמטרה בפני עצמה אלא כדרך. הדרך היחידה המאפשרת ליהודי להגיע למהות. ציטוט מדבריו: "אבל מדוע צריך את כל הארץ? מי שאומר כך אינו מבין מהי באמת ארץ ישראל, "אֶרֶץ אֲשֶׁר ה' אֱלֹהֶיךָ דֹּרֵשׁ אֹתָהּ תָּמִיד עֵינֵי ה' אֱלֹהֶיךָ בָּהּ" – אשר כולה ניתנה רק לעם ישראל, ואיננו רשאים לתת לנכרים גם חלק קטן ממנה .
הרב גינזבורג אינו משתייך לאידיאולוגית הציונות הדתית של תורת הרב קוק. ומתחילת דרכו הדתית, נחשב לקיצוני בדיעותיו שלא חשש להשמיען כמו גם לפרסם חוברת שבה הוא משבח מעשה אלימות קיצוני בברכת "ברוך", "ברוך הגבר" , . הקריאה בדבריו של הרב גינזבורג היא לחזרה לטבע, חזרה לרגש המקורי הטהור, אותו רגש שאימצו גם נערי הגבעות בבחירתם לעסוק בחקלאות, רעיית בעלי חיים וקרבה מיידית לאדמה.
התייחסות הרב גינזבורג לפעולות „תג מחיר“: "זה קרה ביצהר בחול המועד פסח. כינס הרב יצחק גינזבורג, התוועדות תחת הכותרת "בארעא דישראל בני חורין"". יהודה יפרח הוסיף: "נדמה שזו הפעם הראשונה שבה הוגה בסדר גודל של הרב יצחק גינזבורג מתייחס ישירות לתופעה הספציפית של מעשי „תג מחיר“ ומכיל אותה. אז אין באמת ואקום. מאחורי האירועים שמשגעים את המדינה יש תפיסת עולם מגובשת עם כיוון ועם יעד" הרב גינזבורג רואה בפעולות אלה, חלק הכרחי בהתפתחות הנפש היהודית וחירותה משלטון זר.
המשבר האמוני לפי ענברי
ענברי בחן את המשבר האמוני בקרב אנשי הציונות הדתית לאחר ההתנתקות מרצועת עזה וכתב במאמרו : "תהליך ההתנתקות מהווה מקרה בחן לבדיקת התמודדותו של הציבור הציוני דתי בכללותו עם משבר האמונה, ובפרט - בדיקת התמודדותם של מורי ההלכה של ציבור זה, אלה המבקשים לעצב את דפוסי התנהלותו הדתית." הוא הדגיש עוד: "שבחינת עמדותיו של הפלג האקטיביסטי של רבני גוש אמונים, המזוהה עם אסכולת מרכז הרב, איננה יכולה לשקף את עמדותיה של תנועת ההתנחלות בכללותה" . לפי ענברי, מדובר בשתי אסכולות חשיבה שהתפצלו מהאידיאולוגיה הציונית דתית. ושאין הבדל מהותי באידיאולוגיה של הפלגים השונים בציונות הדתית, אלא בהבדלים שעל דרך הפעולה: "אף שבדיעבד כבר הצטמצמו הפערים בין שני הזרמים. מתגובות שני הצדדים נראה ששני המחנות המנוגדים שואפים במהותם לכינונה של מדינת תורה שתחליף את המדינה החילונית חסרת ייעוד הקודש, אולם הפולמוס ביניהם הוא בעיקר על דרך הפעולה הנכונה.
ענברי סיים את מאמרו בשאלה, מה ניתן לחזות לעתיד, כיצד ולאן תתפתח האידיאולוגיה הציונית דתית: "עולה השאלה, לאן נוטה המערכת של הציונות הדתית וגוש אמונים, ואיזו מן המגמות אני מעריך שתגבר. לשם כך מן הראוי ראשית לומר שבחינה כנה של התנהלות ציבור גוש אמונים ערב תוכנית ההתנתקות מלמדת שרק מיעוט ממנו השתתף בהפגנות נגד התוכנית". אלא שבשנת 2012 בראיון עם תומר פרסיקו שהתפרסם באתר "לולאת האל" . שבע שנים לאחר ההתנתקות, הדגיש ענברי את הרדיקליזציה שחלה בעקבות ההתנתקות: "אני רואה את התחזקות עמדות המיעוט, ותוהה לאן פונה תנועה זו. אני רואה שתי מגמות פוטנציאליות – האחת היא שהאכזבה והכשלון יביאו להתפרצות אלימה ותקיפה."
סיכום
הבאתי את תגובותיהם של הרבנים להתנתקות מרצועת עזה וניתחתי אותה על פי תיאוריית הדיסוננס קוגניטיבי. אירועי תג מחיר נכללו בעבודה מסיבות שצויינו לעיל. אולם בהכרח קשר בין אירועי תג מחיר לבין הרבנים שדיעותיהם נבחנו בעבודה זו. הם אינם תומכים בפעולות אלו וכן פעולות אלו לא יצאו מבית מדרשם. ההתפתחות הנ"ל, קרי, אירועי תג מחיר משקפת את התרחקותו של הדור ההמשך מדרך רבני הציונות הדתית. בעצם העבודה מהווה מבט פנוראמי על תהליך חילופי הגברא, כלומר חילופי דיעות והחלפתם של המנהיגים, תהליך שנעשה מתוך השטח.
מכאן שאפשר להניח כי תם תפקידם של הרבנים הללו אשר היו תלמידיו של הרב צבי יהודה קוק. תם עידן הברית בין מדינת ישראל החילונית לבין הציבור הציוני הדתי. יתכן כי אנחנו כעת חווים עידן בו למנהיגים החדשים של הציונות הדתית כמו גם לציבור הצעיר יש דרישות שכבר לא ניתן להדחיק למען המטרה הגדולה (הקמת מדינת ישראל), כפי שהיה בעבר. היום הדור הצעיר דורש את מקומו בהנהגה של המדינה ובעיצוב עתידה הקרוב והרחוק. והנה דבריו של מנהיג מפלגת "בית היהודי" נפתלי בנט בכנס לציון העשור להתנתקות אמר כך: "מטרת הניתוח – מות ההתיישבות ושבירת רוח הימין. מטרת ההתנתקות היתה עצירת עליית אליטות שבמשך שנים צברו השפעה לגיטימית אבל מסוכנת לדעת אנשי השמאל. הם הרגישו שמישהו שינה את החוקים ולא טרח לספר להם". לטענתו, ההתנתקות היתה הדרך למנוע את ייהוד החברה הישראלית, כמו גם מאבק בין אליטות ישנות לחדשות.
נפתלי בנט הטיב להציג את הדברים נכונה, אכן לא מדובר בחילוקי דיעות על עניין החזרת שטחים או שלום עם הפלסטינים אלא מדובר על מהותה של המדינה ולאן מועדות פניה. התחזקותו של המחנה הציוני דתי בראשות נפתלי בנט מראה כי אכן הוא צדק.
אולם, השאלה הרלונטית למחקרי זה היתה, האם רדיקליזציה זו, היא צעד נוסף שתחילתו היא בשורשיו של גוש אמונים או שהרדיקליזציה נבעה מהמשבר האמוני שחל בעקבות ההתנתקות.
על התגברות האלימות מעיר ענברי, כי מאחר ואין גינוי מצד המנהיגים של הציונות הדתית, לא באופן נחרץ, אזי נראה כי היא תגבר. "במצב שבו אין גינוי לאלימות מצד האוטוריטות המרכזיות , במצב שבו היריב הפוליטי מתואר באופן דמנולוגי (ערב רב, קליפה וכו') ובמצב שבו אידיאולוגיה המצדיקה אלימות ספונטנית תופסת תאוצה בקרב חוגים רדיקלים, אין להתפלא שהאלימות הופכת לחלק בלתי נפרד ממפעל ההתנחלויות. "
מה היתה המטרה העיקרית במניעת האלימות במהלך ההתנתקות? במאמרה של ענת רוט התקבל הרושם כי היה חשוב לציבור הציוני דתי להיות חלק מהתרבות הדמוקרטית ולהתרחק מהשם הרע שיצא לציונות הדתית שלאחר רצח רבין: "המתנחלים" חזרו וטענו כי למרות שהם רואים בהתנתקות מהלך "אנטי ציוני, לא מוסרי ולא דמוקרטי", הם מחויבים לכללי הדמוקרטיה ואינם מתכוונים להתנגד לו באלימות" .
נראה כי הטיעונים האלו, של ענברי מצד אחד ושל רוט מצד שני, הם שחקנים במפה הכללית של המהפך שחל בציונות הדתית והתקדמותה לעבר עמדות שלטוניות בהם יבואו לידי ביטוי תפישותיה האמוניות והמדיניות. שורות אלו נכתבות ערב הבחירות לכנסת העשרים ואחת והן יהוו ראיה לחלק מההנחות שהונחו בסיכום זה.
התזות של העבודה
תקופת חז"ל
1. איסור הנישואין מתייחס לשתי נשים – מעוברת ומנקת, ובהתאם לסוגיה הסתמאית בבבלי יבמות, מדובר באיסור שטעמו אחד. למרות תפיסה מקובלת זו, להערכתנו בהלכה הקדומה מדובר היה בשני איסורים שונים: איסור נישואי מעוברת חברו ואיסור נישואי מנקת שמת בעלה.
למסקנה זו הגענו כתוצאה משורה של ראיות:
א. הסוגיה הסתמאית במסכת יבמות מעוררת קשיים רבים (אשר פורטו בעמ' לעבודתנו). קשיים אלה והעובדה כי במחקר המודרני נהוג לשייך סוגיות סתמאיות לסוף תקופת האמוראים ואף לאחר מכן, הביאו אותנו לשער כי סוגיה זו משקפת הצגה מאוחרת של טעם הדין. טעם שונה של הדין מצוי במקורות תנאיים, והוא המשקף כנראה את טעמו הקדום של הדין .
ב. שניים מתוך שלושת המקורות התנאיים, עוסקים האחד רק במנקת והשני רק במעוברת, ולא בשתי הנשים יחד.
ג. ניתוח הלשון של המקורות, מצביע על שורה של שינויים משמעותיים, אשר יש בהם כדי ללמד כי מדובר באיסורים שונים.
2. בהלכה הקדומה נתפס איסור נישואי "מעוברת חברו" כאיסור חמור, והוא הוסמך לפסוקים מהתנ"ך שאסרו הסגת גבול. בשלב מאוחר יותר בתקופת התנאים האיסור פורש ככזה שנועד להבטיח את הנקתו של הילד, צורפה לאיסור הקביעה כי אין לשאת אלמנה מנקת, והיחס לאיסור היה מקל יותר.
למסקנה זו הגענו כתוצאה מהדברים הבאים:
א. בניגוד למקורות תנאיים שנקטו בגישה מקלה במגוון עניינים, ישנם מספר מקורות המציגים גישה מחמירה – לפיה מי שעבר ונשא אלמנה בניגוד לאיסור, "יוציא ולא יחזיר עולמית".
ב. משורה של מקורות שעסקו בדין סוטה, ניכר כי העמדה ההלכתית הקדומה נקטה בגישה לפיה מי שעבר ונשא אלמנה בניגוד לדין והוא חושד כי אשתו סטתה, אינו משקה אותה מי סוטה, שכן היא אסורה עליו עולמית. גישה מקלה יותר, לפיה יכול הוא להפרישה ולהחזירה לאחר זמן ולכן יש טעם בהשקאת הסוטה במקרה כגון זה, התגבשה בספרות התנאית רק בשלב מאוחר יותר. במקביל וללא קשר לדיני סוטה, התפתחה אצל התנאים גישה מקלה, לפיה ישנם חריגים משמעותיים לאיסור נישואי האלמנה (כגון: כאשר הילד נגמל; כאשר הילד נמסר למנקת).
ג. מקור תנאי שעסק רק במעוברת חברו ולא במנקת שמת בעלה, נקט בגישה המחמירה ("יוציא ולא יחזיר עולמית") ולא הזכיר כלל קיומה של גישה מקלה ("יכול הוא להפרישה ולהחזירה לאחר זמן".
ד. מקורות תנאיים בספרות ארץ-ישראלית (מדרש הלכה, התוספתא וברייתא בירושלמי), ראו במי שעבר ונשא כמי שעבר על איסור הנמסך לפסוקים מהתנ"ך (ספר דברים וספר משלי) והאוסרים הסגת גבול. הצענו להבין את הסגת הגבול כמתארת מסגרת שייכות, ולפיה אלמנה שייכת לבעלה המנוח וזאת בכל הקושר לחובתה להבטחת זרעו.
ה. חוקרים (כגון י' גילת) הצביעו על תופעה המאפיינת את המעבר מההלכה הקדומה אל משנתם של התנאים לאחר החורבן: מעבר מגישה מחמירה אשר אינה מכירה בהבחנה בין דין שמעמדו מדאורייתא לדין שמעמדו מדרבנן, אל גישה מקלה יותר המשתלבת עם הנמקה שונה של האיסורים הקדומים והעמדתם במעמד של דרבנן בלבד.
ו. אנו משערים, למרות שהדבר אינו בר הוכחה חותכת, כי תהליך דומה פקד את הדין בו אנו עוסקים: בהלכה הקדומה נאסרה מעוברת חברו, מכוח הפסוק המקראי האוסר על הסגת גבול. איסור זה נחשב כאיסור מהתורה, ולכן היה בו כדי לדחות את מצוות השקאת הסוטה. בשלב מאוחר יותר, כאשר המוסג השגת גבול בכל הנוגע לאלמנה נראה פחות מתאים (בין השאר, הואיל ואלמנה "קונה עצמה" במיתת הבעל – כדברי המשנה בקידושין), הוצע טעם חדש לאיסור – הפגיעה האפשרית בחלב האם. לאור הנמקה זו, חבר אל איסור נישואי מעוברת חברו, גם האיסור לשאת מנקת שמת בעלה, והאיסור בכללותו נתפס בקרב התנאים כאיסור מדרבנן בלבד ושחומרתו קלה יותר. בשלב זה, הפכה הדעה לפיה מי שעבר ונשא "יוציא ולא יחזיר עולמית" לדעת יחיד בלבד(דעת ר' מאיר), ואילו הרבים קבעו כי "יכול הוא להפרישה ולהחזירה לאחר זמן".
3. בתום תקופת האמוראים ואולי אף בתקופה הסבוראית, הוחלט לאמץ את העמדות המחמירות יותר בכל הנוגע לאיסור הנישואין. נקבע כי מלבד מקרה של מות הילד, אין לאיסור חריגים, והאיסור חל גם כאשר הילד כבר אינו יונק. כמו כן נקבע כי משך ההמתנה הנדרש הוא 24 חודשים מהמועד בו נולד הילד. קביעות אלה משקפות הכרעה לאמץ מגמה מחמירה, מתוך מכלול הדעות אשר אפשרו גם אימוץ גישה מקלה יותר.
כפי שהראנו בעבודתנו , ההכרעה לכיוון המחמיר התקבלה ככל הנראה בתקופה הסבוראית. הכרעה זו אינה מובנת מאליה, שכן היו מקורות תנאיים ואמוראיים על בסיסם ניתן היה לקבוע כי יש לאמץ גישה מקלה יותר. לדוגמא, דעת בית הלל ודעת ר' יהודה הייתה כי משך האיסור הוא 18 חודשים בלבד. דעת רשב"ג הייתה כי ניתן לקצר את האיסור בשלושה חודשים נוספים, כך באיסור יהיה למשך 15 חודשים בלבד. לאור זאת, קביעת ההלכתא הסבוראית כי משך ההמתנה הוא 24 חודשים – אינה מובנת מאליה. למרות שאין ביכולתנו להצביע בוודאות על הסבר מדוע אומצה הגישה המחמירה, בעבודתנו הצבענו על ההחמרה במצב היהודים בתקופה הרלבנטית, כרקע אשר עשוי להשתלב עם אימוץ הגישה המחמירה .
תקופת הגאונים
4. בתקופת הגאונים נשמרו חילוקי הדעות בין בני בבל לבני ארץ ישראל, אשר מקורם בהבדלים בין התלמוד הבבלי לתלמוד הירושלמי. הבדלים אלה נוגעים לשאלה מה הדין במקרה בו מת הילד, ולטענתנו גם אודות השאלה האם מי שעבר ונשא יחויב לתת לאשתו גט או שדי בהפרשה בלבד. בסופו של דבר, גאוני בבל הביאו לכך שעמדת הבבלי היא שהתקבלה בעניינים אלה בקרב פוסקי ההלכה.
בעבודתנו עמדנו על היתר שחודש בתקופת הגאונים, ועל שלבים משעורים בהתפתחותו.
תקופת הראשונים
5. בעבודתנו עמדנו על המגמה שאפיינה את פסיקת ההלכה בדין בו אנו עוסקים בתקופת הראשונים. ניסינו להסביר מדוע נעשו ניסיונות לגבש הקלות באיסור הנישואין, ומדוע בסופו של דבר, לדעת רוב הראשונים וכפי שההלכה סוכמה בשלחן ערוך, הגישות המחמירות הן שאומצו. על עניינים אלו.
6. הרחבת היקף פריסתו של האיסור: בניגוד למקורות מתקופת חז"ל מהם נראה כי האיסור חל רק על אלמנה, בתקופת הראשונים נקבע כי האיסור חל גם על גרושה שיש לה ילד מנישואיה הקודמים, וגם על רווקה שילדה ילד מחוץ למסגרת הנישואין. קביעות אלה הביאו להרחבה ניכרת של המקרים בהם חל האיסור.
בעבודתנו עמדנו על הגישות השונות שהיו בסוגיה זו: אודות גרושה אודות מי שילדה בזנות .
עמדנו על כך שישנה קירבה בין שני הנימוקים השונים שהוזכרו בראשית דרכה של ההלכה על טעם האיסור, לבין המחלוקת בין הדעות השונות בשאלת תחולת האיסור על גרושה ועל מי שילדה בזנות. בהתאם לגישה שראתה באיסור משום הסגת גבולו של הבעל הראשון, אין מקום להחלת האיסור כאשר הנישואין הסתיימו בגירושין או כאשר הילד נולד מבלי שהיה קשר נישואין בין הוריו. מנגד, בהתאם לטעם שפורט בבבלי ואשר התמקד בנזק שעלול להיגרם לילד, חשש זה רלבנטי ללא קשר לטיב היחסים בין ההורים ומשכך יש מקום להחיל את איסור הנישואין גם על גרושה וגם על מי שילדה בזנות.
7. פרשיית ר' יעקב מקרקוב והשפעתה על עמדת חכמי ספרד: ר' יעקב מקרקוב סבר כי ניתן לייצר חריגים לאיסור, וזאת על-ידי מסירת הילד למנקת בשכר ועיצוב מנגנון אשר יבטיח שהמנקת לא תפר את התחייבותה להניק את הילד. עמדה זו נדחתה בחריפות על-ידי חכמי אשכנז, אולם נראה כי היא הייתה מקובלת על הרשב"א. כאשר הרא"ש היגר מאשכנז לספרד, הוא הוביל שינוי בתפיסה הספרדית ואימוץ הגישה המחמירה שמקורה באשכנז . העמדות המקלות בסוגיה זו, ככל הנראה צונזרו באופן כה יעיל, עד כי נראה שר' יוסף קארו מחבר השלחן ערוך, לא היה מודע לקיומן.
8. יחסו של הרא"ש להיתר שקבעו הגאונים: עמדנו בפירוט על תהליך העולה ממכלול יצירותיו של הרא"ש: דחיה של היתר שיוחס לגאונים; לאחר מכן אימוץ מהוסס בשעת הדחק של ההיתר; ובסופו של דבר אימוץ היתר רחב יותר העומד בפני עצמו ואינו נשען על משנתם של הגאונים. בהמשך, עמדנו על האופן בו התייחסו חכמי ספרד להיתר הרחב שקבע הרא"ש.
סוגיה זו ממחישה את יחסם השונה של חכמי ספרד וחכמי אשכנז אל תורתם של גאוני בבל, וכן היחס השונה של חכמי ספרד וחכמי אשכנז ללגיטימיות החדשנות ההלכתית. בסוגיה זו, בניגוד לסוגיה שנדונה בסעיף הקודם, הרא"ש גילה גמישות, והסכים להתקרב לעמדת חכמי ספרד (על השערתנו אודות ההסבר לכך).
העת החדשה
9. בעת החדשה, בעקבות קיצור משך ההנקה המקובל, נוצרו שני זרמים מרכזיים ביחס אל איסור הנישואין: הגישה המחמירה מבית מדרשו של החת"ם סופר, והגישה המקלה. הגישה המחמירה מבית מדרשו של החת"ם סופר, הסכימה להתיר את איסור הנישואין, רק כאשר היה חשש שאם איסור הנישואין לא יבוטל, הילד עלול לצאת ממסגרת החיים הדתיים. גישתו המחמירה של החת"ם סופר, הושפעה להערכתנו מהעובדה שאחד מראשוני תנועת הרפורמה, ר' אהרן חורין, טען כי יש לבטל את איסור הנישואין . על-מנת לחזק את תוקפו של האיסור, תלמידו של החת"ם סופר – המהר"ם שיק, טען כי מדובר באיסור מהתורה.
10. הגישה המקלה: גישה זו מורכבת מפסקי הלכה של פוסקים שונים, אשר הסכימו לאמץ הקלות באיסור הנישואין (לפירוט ההקלות העיקריות). הקלות אלה משקפות את גמישותו הרבה של הטקסט המתפרש. אותם טקסטים עצמם שהובנו בעבר באופן מחמיר, פורשו לפתע באופן מקל הרבה יותר. אנו מעריכים כי שינוי הפרשנות נבע משינוי המציאות הסובבת.
11. גם בעלי הגישה המקלה, הושפעו מעמדותיו של החת"ם סופר. השפעה זו באה לידי ביטוי בכך שבעלי הגישה המקלה היו מוכנים לאמץ גישות מקלות שנדחו על-ידי פוסקי ההלכה בעבר, אולם בדרך כלל הם לא היו מוכנים להכיר בצורך בשינוי דרמטי במעמדו של הדין, לאור שינוי המציאות. להערכתנו, עמדה שמרנית זו מובילה לתוצאות בלתי ראויות, והיא אינה משקפת בחינה אמיצה של מידת הרלבנטיות של איסור הנישואין למציאות החיים היהודיים בעשורים האחרונים.
Innerhalb dieser Arbeit erfolgte die erstmalige systematische Untersuchung von Vinylsulfonsäureethylester (1a), Phenylvinylsulfon (1b), N-Benzyl-N-methylethensulfonamid (1c) in der FUJIWARA-MORITANI Reaktion (alternativ als DHR bezeichnet). Bei dieser übergangsmetallkatalysierten Reaktion erfolgt der Aufbau einer neuen C-C-Bindung unter der doppelten Aktivierung einer C-H-Bindung. Somit kann ein atomökonomischer Aufbau von Molekülen realisiert werden, da keine Beiprodukte in Form von Salzen entstehen. Als aromatischer Reaktant wurden Acetanilide (2) verwendet, damit eine regiospezifische Kupplung durch die katalysatordirigierende Acetamid-Gruppe (CDG) erfolgt. Für die Pd-katalysierte DHR wurde eine umfangreiche Optimierung durchgeführt und anschließend konnten neun verschieden, substituierte 2 mit 1a und sieben verschieden, substituierte 2 mit 1b funktionalisiert werden. Da eine Reaktion mit 1c ausblieb, erfolgte ein Wechsel auf eine Ru-katalysierte Methode für die DHR. Mit dieser Methode konnte 1c mit Acetaniliden funktionalisiert werden und das Spektrum der verwendeten 2, in Form von deaktivierenden Substituenten erweitert werden.
Im Anschluss wurden die sulfalkenylierten Acetanilide in weiterführenden Reaktionen untersucht. Hierfür wurde eine Reaktionssequenz bestehend aus einer DeacetylierungDiazotierung-Kupplungsreaktion verwendet, um die Acetamid-Gruppe in eine Abgangsgruppe zu überführen und danach in einer MATSUDA-HECK Reaktion zu kuppeln. Mit dieser Methode konnten mehrere 1,2-Dialkenylbenzole erhalten werden und die CDG ein weiteres Mal genutzt werden. Neben der Überführung der CDG in eine Abgangsgruppe konnte diese auch in die Synthese verschiedener Heterozyklen integriert werden. Dafür erfolgte zunächst eine 1,3-Zykloaddition durch deprotonierten Tosylmethylisocanid an der elektronenarmen Sulfalkenylgruppe zur Synthese von Pyrrolen. Anschließend erfolgte eine Kupplung der PyrrolFunktion und der CDG durch Zyklokondensation, wodurch Quinoline dargestellt wurden. Durch diese Synthesen konnten Schwefelanaloga des Naturstoffes Marinoquionolin A erhalten werden.
Ein weitere übergangsmetallkatalysierte C-H-Aktivierungsreaktion, die MATSUDA-HECK Reaktion, wurde genutzt, um 1b zu mit verschieden, subtituierten Diazoniumsalzen zu arylieren. Hier konnten zahlreichen Styrenylsulfone erhalten werden. Der erfolgreiche Einsatz der Vinylsulfonylverbindungen in der Kreuzmetathese konnte innerhalb dieser Arbeit nicht erreicht werden. Daher erfolgte die Synthese verschiedener dialkenylierter Sulfonamide. Hierfür wurde die Kettenlänge der Alkenyl-Gruppe am Schwefel zwischen 2-3 und am Stickstoff zwischen 3-4 variiert. Der Einsatz der dialkenylierten Sulfonamide erfolgte in den zuvor untersuchten C-H-Aktivierungsmethoden.
N-Allyl-N-phenylethensulfonamid (3) konnte erfolgreich in der DHR und HECK Reaktion funktionalisiert werden. Hierbei erfolgte eine methodenspezifische Kupplung in Abhängigkeit von der Elektronendichte der entsprechenden Alkenyl-Gruppe. Die DHR führte zur selektiven Arylierung der Vinyl-Gruppe und die HECK Reaktion zur Arylierung an der Allyl-Gruppe. Gemischte Produkte wurden nicht erhalten. Für die weiteren Diolefine wurde komplexe Produktgemische erhalten. Des Weiteren wurden die Diolefine in der Ringschlussmetathese untersucht und die entsprechenden Sultame in sehr guten Ausbeuten erhalten. Die Verwendung der Sultame in der C-H-Aktivierung war erfolglos. Es wird vermutet, dass für diese zweifachsubstituierten Sulfonamide die vorhandenen Reaktionsbedingungen optimiert werden müssen.
Abschließend wurden verschiedene, enantiomerenreine Olefine ausgehend von Levoglucosenon dargestellt. Hierfür wurde Levoglucosenon zunächst mit einem Allyl- und 3-Butenylgrignard Reagenz umgesetzt. Die entsprechenden Produkte wurden in moderaten Ausbeuten erhalten. Eine weitere Methode begann mit der Reduktion von Levoglucosenon zum Levoglucosenol. Dieser Alkohol wurde mit Allylbromid erfolgreich verethert. Neben der Untersuchungen zur Ethersynthese, erfolgte die Veresterung von Levoglucosenol mit verschiedenen Sulfonylchloriden zu den entsprechenden Sulfonsäureestern. Diese Olefine wurden in einer Dominometathesereaktion untersucht. Ausgehend vom Allyllevoglucosenylether erfolgte die Darstellung eines Dihydrofurans.
Intensive Forschung hat in den vergangenen Jahrzehnten zu einer sehr detaillierten Charakterisierung des Geschmackssystems der Säugetiere geführt. Dennoch sind mit den bislang eingesetzten Methoden wichtige Fragestellungen unbeantwortet geblieben. Eine dieser Fragen gilt der Unterscheidung von Bitterstoffen. Die Zahl der Substanzen, die für den Menschen bitter schmecken und in Tieren angeborenes Aversionsverhalten auslösen, geht in die Tausende. Diese Substanzen sind sowohl von der chemischen Struktur als auch von ihrer Wirkung auf den Organismus sehr verschieden. Während viele Bitterstoffe potente Gifte darstellen, sind andere in den Mengen, die mit der Nahrung aufgenommen werden, harmlos oder haben sogar positive Effekte auf den Körper. Zwischen diesen Gruppen unterscheiden zu können, wäre für ein Tier von Vorteil. Ein solcher Mechanismus ist jedoch bei Säugetieren nicht bekannt. Das Ziel dieser Arbeit war die Untersuchung der Verarbeitung von Geschmacksinformation in der ersten Station der Geschmacksbahn im Mausgehirn, dem Nucleus tractus solitarii (NTS), mit besonderem Augenmerk auf der Frage nach der Diskriminierung verschiedener Bitterstoffe. Zu diesem Zweck wurde eine neue Untersuchungsmethode für das Geschmackssystem etabliert, die die Nachteile bereits verfügbarer Methoden umgeht und ihre Vorteile kombiniert. Die Arc-catFISH-Methode (cellular compartment analysis of temporal activity by fluorescent in situ hybridization), die die Charakterisierung der Antwort großer Neuronengruppen auf zwei Stimuli erlaubt, wurde zur Untersuchung geschmacksverarbeitender Zellen im NTS angewandt. Im Zuge dieses Projekts wurde erstmals eine stimulusinduzierte Arc-Expression im NTS gezeigt. Die ersten Ergebnisse offenbarten, dass die Arc-Expression im NTS spezifisch nach Stimulation mit Bitterstoffen auftritt und sich die Arc exprimierenden Neurone vornehmlich im gustatorischen Teil des NTS befinden. Dies weist darauf hin, dass Arc-Expression ein Marker für bitterverarbeitende gustatorische Neurone im NTS ist. Nach zweimaliger Stimulation mit Bittersubstanzen konnten überlappende, aber verschiedene Populationen von Neuronen beobachtet werden, die unterschiedlich auf die drei verwendeten Bittersubstanzen Cycloheximid, Chininhydrochlorid und Cucurbitacin I reagierten. Diese Neurone sind vermutlich an der Steuerung von Abwehrreflexen beteiligt und könnten so die Grundlage für divergentes Verhalten gegenüber verschiedenen Bitterstoffen bilden.
Die vorliegende Arbeit basiert auf Forschungen in den Jahren 2007-2009. Sie betrachtet die saisonale Arbeitsmigration aus der polnischen Region Konin, wo die Arbeitsmigration aus ökonomischen Gründen, wie auch in ähnlich strukturierten Gebieten Polens, eine lange Tradition hat, die bis ins 19. Jahrhundert zurückgeht. Sie wird die saisonale Migration ins Ausland mit den ökonomischen, sozialen und räumlichen Auswirkungen aus der Perspektive des Einzelnen und seiner unmittelbaren Umgebung, aber auch der Gesellschaft und Herkunftsgebiet der Migranten betrachtet.
In den letzten 20 Jahren hat sich der Maiszünsler (Ostrinia nubilalis HÜBNER), aus der Schmetterlingsfamilie der Pyralidae oder Zünsler, zum bedeutendsten tierischen Schädling des Maises (Zea mays) entwickelt. Eine Möglichkeit den Befall des Maiszünslers abzuwenden, bietet der Anbau von Bacillus thuringiensis-Mais (Bt-Mais). Mit Hilfe der Gentechnik wurden Gene des Bakteriums Bacillus thuringiensis übertragen, die einen für Fraßinsekten giftigen Wirkstoff bilden, wodurch die Pflanzen während der kompletten Vegetation vor den Larven des Maiszünslers geschützt sind. Ziel des vorliegenden Projektes war es, in einer 3-jährigen Studie die Auswirkungen des großflächigen Anbaus von Bt-Mais auf die ökologische Situation und den Handlungsrahmen des integrierten Pflanzenschutzes komplex zu untersuchen. Dazu wurden in Betrieben im Oderbruch, das als permanentes Befallsgebiet des Maiszünslers gilt, in den Jahren 2002 bis 2004 jährlich zwei Felder mit jeweils einer Bt-Sorte und einer konventionellen Sorte angelegt. Zusätzlich wurden biologische und chemische Maiszünsler-Bekämpfungsvarianten geprüft. Durch verschiedene Methoden wie Bonituren, Ganzpflanzenernten, Bodenfallenfänge und Beobachtungen des Wahlverhaltens von (Flug-)insekten konnten Aussagen zum Vorkommen von Insekten und Spinnentieren getroffen werden, wobei hierfür Daten aus Untersuchungen der Jahre 2000 und 2001 im Oderbruch ergänzend herangezogen werden konnten. Durch Ertragsmessungen, Energie- und Qualitätsermittlungen, sowie Fusarium- und Mykotoxinanalysen konnte der Anbau von Bt-Mais als neue Alternative zur Bekämpfung des Maiszünslers bewertet werden. Bezüglich des Auftretens von Insekten und Spinnentieren wurden im Mittel der fünfjährigen Datenerhebung beim Vergleich der Bt-Sorte zur konventionellen Sorte, mit Ausnahme der fast 100 %igen Bekämpfung des Maiszünslers, keine signifikanten Unterschiede festgestellt. Hierfür wurde ein besonderes Augenmerk auf Thripse, Wanzen, Blattläuse und deren Fraßfeinde, sowie mittels Bodenfallenfängen auf Laufkäfer und Spinnen gerichtet. Die erwarteten ökonomischen Vorteile wie etwa Ertragsplus oder bessere Nährstoff- und Energiegehalte durch geringeren Schaden beim Anbau von Bt-Mais als Silomais blieben in den Untersuchungsjahren aus. Allerdings zeigten Fusarium- und Mykotoxinanalysen eine geringere Belastung des Bt-Maises, was möglicherweise auf den geringeren Schaden zurückzuführen ist, da beschädigte Pflanzen für Fusarium und Mykotoxine anfälliger sind. Desweiteren konnten erste methodische Ansätze für ein auf EU-Ebene gefordertes, den Anbau von Bt-Mais begleitendes Monitoring, erarbeitet werden. So konnten Vorschläge für geeignete Methoden, deren Umfang sowie des Zeitpunktes der Durchführungen gemacht werden.
Die vorliegende Arbeit enthält eine statistische Analyse der Gesamtheit öffentlicher Unternehmen in Deutschland und ihrer wirtschaftlichen Lage. Für diese Untersuchung stand eine Datenbank für etwa 9000 öffentliche Unternehmen mit knapp 500 Merkmalen zur Verfügung, die im Wesentlichen den Posten der Jahresabschlüsse und verschiedenen Identifikationsmerkmalen (wie u. a. Unternehmenssitz, Wirtschaftszweig und Rechtsform) entsprechen. Die Analyse umfasst den Zeitraum von 1998 bis 2006. Die extrem umfangreiche Datengrundlage – Jahresabschlussstatistiken öffentlicher Unternehmen – ist für einen Statistiker eine große Versuchung. In der Arbeit wurden Methoden der beschreibenden Statistik und der Jahresabschlussanalyse mit Bilanzkennzahlen angewandt. Vor allem in den letzten zwanzig Jahren wurde die Entwicklung der Gesamtheit öffentlicher Unternehmen durch Wandelprozesse geprägt und von Diskussionen über ihre Leistungsfähigkeit begleitet. Die Dynamik der Gesamtheit öffentlicher Unternehmen zeigt sich v. a. an der Vielfalt ihrer Aufgabenbereiche und Organisationsformen. Daher wurde in dieser Arbeit versucht, zunächst eine Bestandsaufnahme des öffentlichen Unternehmensbereichs durchzuführen. Ein weiteres Ziel war die Beschreibung der Wirtschaftslage öffentlicher Unternehmen im letzten Jahrzehnt, wobei ihre Leistungsfähigkeit in den Vordergrund gestellt wird. Die Leistungsfähigkeit öffentlicher Unternehmen nur über die betriebswirtschaftliche Effizienz zu messen, ist gewiss einseitig und nicht ausreichend. Diese ließ sich aber im Vergleich zur volkswirtschaftlichen oder sozialen Effizienz leichter operationalisieren: Die betriebswirtschaftlichen Effizienzkriterien können gut aus den Jahresabschlüssen abgeleitet werden. Dadurch wird auch ein Vergleich mit privaten Unternehmen in gewissen Grenzen möglich. Die Beschreibung der Wirtschaftslage öffentlicher Unternehmen wurde als Analyse ihrer einzelnen Teillagen (Vermögens-, Finanz- und Ertragslage) strukturiert. Insgesamt unterstreicht die Analyse der Teillagen die enge Verflechtung zwischen öffentlichen Unternehmen und öffentlichen Haushalten. Die vorliegende Untersuchung soll die Forschung auf dem Gebiet der datengetriebenen Statistik, die im Universitätsbereich in letzten Jahren im Vergleich zur modellgetriebenen Statistik oft vernachlässigt wurde, ausweiten.
The political legacy of the Martinican poet, novelist and philosopher Édouard Glissant (1928–2011) is the subject of an ongoing debate among postcolonial literary scholars. Responding to an influential view shaping this debate, that Glissant’s work can be categorised into an early political and late apolitical phase, this dissertation claims that this division is based on a narrow conception of 'engaged political writing' that prevents a more comprehensive view of the changing political strategies Glissant pursued throughout his life from emerging. Proceeding from this conceptual basis, the dissertation is concerned with re-reading the dimensions of Glissant's work that have hitherto been relegated as apolitical, literary or poetic, with the aim of conceptualising the politics of relation as an integral part of his overall poetic project. In methodological terms, the dissertation therefore proposes a relational reading of Glissant’s life-work across literary genres, epochs, as well as the conventional divisions between political thought, writing and activism. This perspective is informed by Glissant's philosophy of relation, and draws on a conception of political practice that includes both explicit engagements with established political systems and institutions, as well as literary and cultural interventions geared towards their transformation and the creation of alternatives to them. Theoretically the work thus combines a poststructuralist lens on the conceptual difference between 'politics' and 'the political' with arguments for an inherent political quality of literature, and perspectives from the Afro-Caribbean radical tradition, in which writers and intellectuals have historically sought to combine discursive interventions with organisational actions. Applying this theoretical angle to the analysis of Glissant's politics of relation results in an interdisciplinary research framework designed to explore the synergies between postcolonial political and literary studies.
In order to comprehensively describe Glissant's politics of relation without recourse to evolutionary or digressive models, the concept of an intellectual marronage is proposed as a framework to map the strategies making up Glissant's political archive. Drawing on a variety of historic, political theoretical and literary sources, intellectual marronage is understood as a mode of radical resistance to the neocolonial subjugation for which the plantation system stands historically and metaphorically, as an inherently innovative political practice invested in the creation of communities marked by relational ontologies, and as a commitment to fostering an imagination of the world and the human that differs fundamentally from the Enlightenment paradigm. This specific conception of intellectual marronage forms the basis on which three key strategies that consistently shape Glissant's political practice are identified and mapped. They revolve around Glissant's engagement with history (chapter 2), his commitment to fostering an imagination of the Tout-Monde (whole-world) as a political point of reference (chapter 3), and the continuous exploration of alternative forms of community on the levels of the island, the archipelago and the Tout-Monde (chapter 4). Together these strategies constitute Glissant's personal politics of relation. Its abstract characteristics can be put in a productive conversation with related theoretical traditions invested in exploring the political potentials of fugitivity (chapters 5), as well as with the work of other postcolonial actors whose holistic practice warrants to be described as a politics of relation (chapter 6).
Automobildesigner haben als Gestaltungsexperten die Aufgabe, die Identität und damit die Werte einer Marke in Formen zu übersetzen, welche eine Vielzahl von Kunden ansprechen (Giannini & Monti, 2003; Karjalainen, 2002). Für diesen Übersetzungsprozess ist es zielführend, ästhetische Kundenbedürfnisse zu kennen, denn die Qualität einer Designlösung hängt auch davon ab, inwieweit der Designer Kundenbe-dürfnisse und damit das Designproblem richtig erfasst hat (Ulrich, 2006). Eine Grundlage hierfür entsteht durch eine erfolgreiche Designer-Nutzer-Interaktion und den Aufbau eines gemeinsamen Kontextwissens (Lee, Popovich, Blackler & Lee, 2009). Zwischen Designern und Kunden findet jedoch häufig kein direkter Austausch statt (Zeisel, 2006). Zudem belegen Befunde der Kunst- und Produktästhetikforschung, dass der Erwerb von gestalterischem Wissen und damit die Entwicklung ästhetischer Expertise mit Veränderungen der kognitiven Verarbeitung ästhetischer Objekte einhergeht, die sich in Wahrnehmung, Bewertung und Verhalten manifestieren. Damit ist auch zu erwarten, dass die Präferenzurteile von Designern und Kunden bei der ästhetischen Bewertung von Design nicht immer konvergieren. Ziel der vorliegenden Arbeit war daher die systematische Untersuchung dieser expertisebedingten Wahrnehmungs- und Bewertungsunterschiede zwischen designge-schulten und ungeschulten Personen bei der Betrachtung von Automobildesign. Damit sollten Perzeption, Verarbeitung und Bewertung von Automobildesign durch design-ungeschulte Personen transparenter gemacht und mit der Verarbeitung designgeschul-ter Personen verglichen werden, um einen Beitrag zur gemeinsamen Wissensbasis und damit einer erfolgreichen Designer-Nutzer-Interaktion zu leisten. Die theoretische Einbettung der Arbeit basierte auf dem Modell ästhetischer Erfahrung und ästheti-schen Urteilens von Leder, Belke, Oeberst und Augustin (2004), welches konkrete Annahmen zu Verarbeitungsunterschieden von ästhetischen Objekten zwischen Experten und Laien bietet, die bisher allerdings noch nicht umfassend geprüft wurden. Den ersten Schwerpunkt dieser Arbeit bildete die Untersuchung von Unter-schieden zwischen Designern und designungeschulten Rezipienten bei der Beschrei-bung und Bewertung auf dem Markt vorhandenen Fahrzeugdesigns. Dabei sollte auch geprüft werden, ob eine lexikalische Verbindung zwischen Beschreibungsattributen von Fahrzeugrezipienten und den postulierten Markenwerten von Automobilmarken hergestellt werden kann. Diesem ersten Untersuchungsanliegen wurde in zwei Studien nachgegangen: Studie I diente der Erhebung von Beschreibungsattributen mittels Triadenvergleich in Anlehnung an Kelly (1955). Es wurde geprüft, ob designgeschulte Teilnehmer produkti-ver verbalisieren, dabei anteilig mehr symbolbezogene als formbezogene Attribute generieren und innerhalb ihrer Gruppe häufiger gleiche Attribute nutzen als designun-geschulte Teilnehmer. Hierfür beschrieben 20 designgeschulte Probanden und 20 designungeschulte Probanden mit selbst gewählten Adjektiven die Unterschiede zwischen vier präsentierten Fahrzeugen. Die Gruppen nutzten dabei entgegen der Annahmen sehr ähnliche Attribute und unterschieden sich somit auch nicht in ihrer Verwendung symbolbezogener und formbezogener Attribute. Die generierten Attribute wurden mittels Prototypenansatz (Amelang & Zielinski, 2002) den ermittelten und nachfolgend kategorisierten Markenwerten von 10 Automobilherstellern zugeordnet, so dass sechs Skalen zur Erfassung der ästhetischen Wirkung von Fahrzeugen entstanden. In Studie II wurde ein diese sechs Skalen umfassender Fragebogen an einer Stichprobe von 83 Designern und Designstudierenden sowie 98 Probanden ohne Designausbildung in einer Onlinebefragung hinsichtlich Skalenkonsistenz geprüft. Außerdem wurden erste Annahmen aus dem Modell von Leder et al. (2004) abgeleitet und durch einen Vergleich der beiden Teilnehmergruppen hinsichtlich der Bewertung der vier präsentierten Fahrzeugmodelle für die Skalen mit guter interner Konsistenz (Attraktivität, Dynamik, Fortschritt, Qualität), sowie eines ästhetischen Gesamturteils, der benötigten Bewertungszeit und der Automobilaffinität überprüft. Hierbei vergaben Designstudierende und insbesondere ausgebildete Designer radikalere Bewertungen als Designlaien, benötigten mehr Zeit bei der Bewertung und waren automobilaffiner als die ungeschulten Befragungsteilnehmer. Den zweiten Schwerpunkt der Arbeit bildete eine konzeptionelle Zusammen-führung der Annahmen des Modells von Leder et al. (2004) und der Postulate zur Wirkung von Objekteigenschaften auf ästhetische Urteile (Berlyne, 1971; Martindale, 1988; Silvia, 2005b). Konkret sollte geprüft werden, welchen Einfluss marktrelevante Objekteigenschaften, wie z.B. das Ausmaß an Innovativität, auf die durch Expertise moderierte Bewertung von Design haben. In den Studien III und IV wurden hierfür systematisch bezüglich Innovativität und Balance gestufte Linienmodelle von Fahrzeu-gen präsentiert. In Studie III wurden die Modelle in einer Onlinebefragung durch 18 Designstudierende und 20 Studenten der Fahrzeugtechnik hinsichtlich Attraktivität, Innovativität und Balance bewertet. Im Einklang mit den Annahmen konnte gezeigt werden, dass sehr neuartiges Design von den designungeschulten Probanden als weniger attraktiv bewertet wird als von Betrachtern eines Designstudienganges. In Studie IV wurden neben den Ästhetikbewertungen zusätzlich das Blickverhal-ten und der affektiver Zustand der Versuchsteilnehmer in einem Messwiederholungs-design mit einer zwischengelagerten Phase elaborierter Designbewertung, in welcher der in Studie II geprüfte Fragebogen eingesetzt wurde, erhoben. An der Laborstudie nahmen je 11 Designer, Ingenieure, und Geisteswissenschaftler teil. Wiederum wurde innovatives Design von den designungeschulten Gruppen als weniger attraktiv bewertet. Dieser Unterschied reduzierte sich jedoch nach wiederholter Bewertung der Modelle. Die Manifestation expertisebedingten Blickverhaltens konnte nicht beobach-tet werden, wie auch die durch eine angenommene bessere Bewältigung einherge-hende positivere Stimmung oder höhere Zufriedenheit in der Expertengruppe. Gemeinsam mit den Befunden aus den Studien II und III wurde deutlich, dass Designausbildung und, noch ausgeprägter, Designexpertise neben einer höheren Attraktivitätsbewertung innovativen Designs auch zu einer differenzierteren Beurtei-lung von Innovativität führt. Dies wurde mit der Erweiterung des mentalen Schemas für Fahrzeuge durch die Beschäftigung mit vielfältigen Modellvarianten bereits während des Studiums interpretiert. Es wurden Hinweise auf eine stilbezogene, elaboriertere Verarbeitung von Fahrzeugdesign durch designgeschulte Betrachter beobachtet sowie eine mit Expertise einhergehende Autonomität ästhetischer Urteile als Ausdruck einer hohen ästhetischen Entwicklungsstufe (Parsons, 1987). Mit diesen bei unterschiedlichen Stichproben beobachteten, stabilen expertisebedingten Bewer-tungsunterschieden wurde eine begründete Basis für die geforderte Sensibilisierung für ästhetische Kundenbedürfnisse im Gestaltungsprozess geschaffen. Der in dieser Arbeit entwickelte Fragebogen kann hierbei für eine elaborierte Messung von Fahrzeugdesignpräferenzen, zum Vergleich der ästhetischen Wirkung mit den intendierten Markenwerten sowie für die Diskussion von Nutzereindrücken eingesetzt werden. Die Ergebnisse der vorliegenden Arbeiten tragen somit zur Erweiterung und Präzisierung des theoretischen Verständnisses von Ästhetikbewertungen bei und lassen sich gleichzeitig in die Praxis der Designausbildung und des Designprozesses übertragen.
Objeto de esta investigación es el auge y caída de una legitimación teológica de la poesía que tuvo lugar en el virreinato del Perú entre fines del siglo XVI y la segunda mitad del siglo XVII. Su punto cúlmine está marcado por el surgimiento de una “Academia Antártica” en las primeras décadas del siglo XVII, mientras que su fin, se aprecia a fines del mismo siglo, cuando eruditos de las órdenes religiosas, especialmente Juan de Espinosa y Medrano en sus textos en defensa de la poesía y las ciencias, negaron a la poesía cualquier estatuto teológico, sirviéndose sin embargo de ella para escribir sus sermones y textos. A partir del auge y caída de esta legitimación teológica en el virreinato del Perú, este estudio muestra la existencia de dos movimientos que forman un quiasmo entre una teologización de la poesía y una poetización de la teología, en cuyo centro velado se encuentra en disputa el saber teórico y práctico de la poesía. Lo que está en disputa en este sentido no es la poesía, entendida como una cumbre de las bellas letras, sino la posesión legítima de un modo de lectura analógico y tipológico del orden del universo, fundado en las Sagradas Escrituras y en la historia de la salvación, y un modo poético para doctrinar a todos los miembros de la sociedad virreinal en concordancia con aquel modo de lectura.
Gegenstand der Arbeit sind die protestantischen Landprediger der Kurmark Brandenburg in der zweiten Hälfte des 18. Jahrhunderts. Die Landprediger standen zu dieser Zeit in schlechtem Ruf, indem sie von der gebildeten Öffentlichkeit für "verbauert" gehalten wurden. Sie versuchten ihre Zugehörigkeit zum aufgeklärten Bürgertum unter Beweis zu stellen, nicht zuletzt indem sie "Volksaufklärung" betrieben. Auf der Grundlage breiten archivalischen Materials werden die kulturellen, sozialen und ökonomischen Umstände beleuchtet, unter denen die Landprediger als Träger der Volksaufklärung agierten. In Rede stehen die Einkünfte, die Ausbildung in der Schule und an der Universität zu Halle/Saale, Herkunft und Karrierewege, das Kirchenpatronat, das Verhältnis zum preußischen Staat, der Pfarrer in der Sicht der Dorfgemeinde, der Pfarrer als Volksaufklärer.
Trotz der hohen innovationspolitischen Bedeutung der außeruniversitären Forschungseinrichtungen (AUF) sind sie bisher selten Gegenstand empirischer Untersuchungen. Keine der bisher vorliegenden Arbeiten legt ihren Fokus auf die Zusammenarbeit von Wissenschaftler:innen in Forschungsteams, obwohl wissenschaftliche Zusammenarbeit ein weitgehend unerforschtes Gebiet ist. Dies verwundert insofern, da gerade innovative und komplexe Aufgaben, wie sie im Bereich der Forschung bestehen, das kreative Potenzial Einzelner sowie eine gut funktionierende Kooperation der einzelnen Individuen benötigen. Die Zusammenarbeit von Wissenschaftler:innen in den AUF findet in einem kompetitiven Umfeld statt. Einerseits stehen die AUF auf Organisationsebene im Wettbewerb zueinander und konkurrieren um Forschungsgelder und wissenschaftliches Personal. Andererseits ist die kompetitive Einwerbung von Drittmitteln für Wissenschaftler:innen essentiell, um Leistungen, gemessen an hochrangigen Publikationen und Drittmittelquoten, für die eigene Karriere zu erbringen. Ein zunehmender Anteil an Drittmittelfinanzierung in den Einrichtungen hat zudem Auswirkungen auf die Personalpolitik und die Anzahl befristeter Arbeitsverhältnisse. Gleichzeitig wird Forschungsförderung häufig an Kollaborationen von Wissenschaftler:innen geknüpft und bei Publikationen und Forschungsergebnissen zeigen Studien, dass diese überwiegend das Resultat von mehreren Personen sind. Dieses Spannungsfeld zwischen Zusammenarbeit und Wettbewerb wird verstärkt durch die fehlenden Möglichkeiten für den wissenschaftlichen Nachwuchs in der Wissenschaft zu bleiben. Auch wenn die Bundesregierung auf diese Herausforderungen reagiert, muss der Einzelne seinen Weg zwischen Zusammenarbeit und Konkurrenz finden.
Zielsetzung dieser Arbeit ist es, nachfolgende Forschungsfragen zu beantworten:
1. Wie können naturwissenschaftliche Forschungsteams in AUF charakterisiert werden?
2. Wie agiert die einzelne Forscherin/ der einzelne Forscher im Spannungsfeld zwischen Kooperation und Wettbewerb?
3. Welche Potentiale und Hemmnisse lassen sich auf Individual-, Team- und Umweltebene für eine erfolgreiche Arbeit von Forschungsteams in AUF ausmachen?
Um die Forschungsfragen beantworten zu können, wurde eine empirische Untersuchung im Mixed Method Design, bestehend aus einer deutschlandweiten Onlinebefragung von 574 Naturwissenschaftler:innen in AUF und qualitativen Interviews mit 122 Teammitgliedern aus 20 naturwissenschaftlichen Forschungsteams in AUF, durchgeführt.
Die Ergebnisse zeigen, dass die Teams eher als Arbeitsgruppen bezeichnet werden können, da v.a. in der Grundlagenforschung kein gemeinsames Ziel als vielmehr ein gemeinsamer inhaltlicher Rahmen vorliegt, in dem die Forschenden ihre individuellen Ziele verfolgen. Die Arbeit im Team wird überwiegend als positiv und kooperativ beschrieben und ist v.a. durch gegenseitige Unterstützung bei Problemen und weniger durch einen thematisch wissenschaftlichen Erkenntnisprozess geprägt. Dieser findet vielmehr in Form kleiner Untergruppen innerhalb der Arbeitsgruppe und vor allem in enger Abstimmung mit der Teamleitung (TL) statt. Als wettbewerbsverschärfend werden vor allem organisationale Rahmenbedingungen, wie Befristungen und der Flaschenhals, thematisiert.
Die TL nimmt die zentrale Rolle im Team ein, trägt die wissenschaftliche, finanzielle und personelle Verantwortung und muss den Forderungen der Organisation gerecht werden. Promovierende konzentrieren sich fast ausschließlich auf ihre Qualifizierungsarbeit. Bei Postdocs ist ein Spannungsfeld zu erkennen, da sie eigene Projekte und Ziele verfolgen, die neben den Anforderungen der TL bestehen. Die Gatekeeperfunktion der TL wird gestärkt durch ihre Rolle bei der Weitergabe von karriererelevanten Informationen im Team, z.B. bei anstehenden Konferenzen. Sie hat die wichtigen Kontakte, sorgt für die Vernetzung des Teams und ist für die Netzwerkpflege zuständig. Der wissenschaftliche Nachwuchs verlässt sich bei seinen Aufgaben und den karriererelevanten Faktoren sehr auf ihre Unterstützung. Nicht-wissenschaftliche Mitarbeitende gilt es stärker zu berücksichtigen, dies sowohl in ihrer Funktion in den Teams als auch in der Gesamtorganisation. Sie sind die zentralen Ansprechpersonen des wissenschaftlichen Personals und sorgen für eine Kontinuität bei der Wissensspeicherung und -weitergabe. Für die Organisationen gilt es, unterstützende Rahmen-, Arbeits- und Aufgabenbedingungen für die TL zu schaffen und den wissenschaftlichen Nachwuchs bei einer frühzeitigen Verantwortung für wissenschaftliche und karriererelevante Aufgaben zu unterstützen. Dafür bedarf es verbesserter Personalentwicklungskonzepte und -angebote. Darüber hinaus gilt es, Kooperationsmöglichkeiten innerhalb der Einrichtung und zwischen den Gruppen zu schaffen, z.B. durch offene Räume und Netzwerkmöglichkeiten, und innovative Arbeitsumgebungen zu fördern, um neue Formen einer innovationsfreundlichen Wissenschaftskultur zu etablieren.
Seit dem Zusammenbruch der Sowjetunion kamen in diesem Raum neue Migrationsprozesse wie die Arbeitsmigration zwischen den südlichen GUS-Republiken und Russland, aber auch grenzüberschreitende Bevölkerungsbewegungen ethnischer Gruppen in ihre „historischen Herkunftsgebiete“ auf. Die in der vorliegenden Arbeit untersuchten, dynamischen Wanderungsprozesse von Kasachen zwischen der Mongolei und Kasachstan weisen Kennzeichen dieses Migrationstypus, aber auch einige Besonderheiten auf. Die vorliegende Arbeit hat längere Forschungsaufenthalte in Kasachstan und der Mongolei von 2006 bis 2009 zur Grundlage. Aus der Mongolei stammende kasachische Migranten im Umland von Almaty und Kasachen im westlichsten aymag der Mongolei, Bayan-Ölgiy, wurden mittels quantitativer und qualitativer Methoden empirischer Sozialforschung befragt. Ergänzend wurden in beiden Staaten Befragungen von Experten aus gesellschaftlichen, wissenschaftlichen und politischen Institutionen durchgeführt, um eine möglichst ausgeglichene Sicht auf die postsowjetischen Migrations- und Inkorporationsprozesse zwischen beiden Staaten sicherzustellen. Zwischen den Migranten in Kasachstan und ihren – noch bzw. wieder – in der Mongolei lebenden Verwandten haben sich in den letzten Jahrzehnten enge soziale Netzwerke entwickelt. Die Aufrechterhaltung der Bindungen wird durch eine Verbesserung der Transport- und Kommunikationsmöglichkeiten zwischen beiden Staaten gefördert. Zirkuläre Migrationsmuster, regelmäßige Besuche und Telefongespräche sowie grenzüberschreitende sozioökonomische Unterstützungsmechanismen haben sich insbesondere in den vergangenen Jahren intensiviert. Diese Interaktionen sind im Kontext der rechtlichen, politischen und wirtschaftlichen Bedingungen im Migrationssystem Mongolei-Kasachstan – und insbesondere in Wechselwirkung mit der staat¬lichen Migrations- und Inkorpora-tionspolitik – einzuordnen. Die Erkenntnisse der vorliegenden Untersuchung lassen sich in aller Kürze so zusammenfassen: (I) Die in sozialen Netzwerken organisierten Interaktionen der Kasachen aus der Mongolei weisen Merkmale von, aber auch Unterschiede zu Konzepten des Transnationalismus-Ansatzes auf. (II) Die sozialen Bindungen zwischen Verwandten generieren Sozialkapital und tragen zur alltäglichen Unterstützung bei. (III) Die lokalen und grenzüberschreitenden Aktivitäten der Migranten sind als Strategien der sozioökonomischen Eingliederung zu deuten. (IV) Ein wesentlicher Teil der aus der Mongolei stammenden Kasachen artikuliert von der Mehrheitsbevölkerung abweichende, hybride Identifikationsmuster, die die politischen Eliten in Kasachstan bisher zu wenig wahrnehmen.
Die Dissertation befasst sich mit den Reformprozessen, die sich vom Zeitpunkt des System-umbruchs 1989/90 bis zum EU-Beitritt 2004 in den Ministerialverwaltungen Estlands und Polens vollzogen haben. Die Veränderungen, die während dieser Zeit stattfanden, standen im Spannungsfeld zweier Prozesse: des von innenpolitischen Erfordernissen geprägten Transformationsprozesses und des Europäisierungsprozesses, in dem die EU als einflussreicher externer Akteur hinzutrat. Konzeptionell greift die Untersuchung auf die Diskussionen aus der institutionellen Transformationsforschung und die Debatten um die Europäisierung von Regierungs- und Verwaltungssystemen zurück. Die Arbeit konzentriert sich auf die Veränderungen auf der zentralstaatlichen Ebene und betrachtet diese Veränderungen in ihrer horizontalen und sektoralen Dimension. Die horizontale Dimension umfasst Rahmenbedingungen des Verwaltungssystems insgesamt, dies sind zentrale Strukturen des Regierungsapparates, die regierungsinternen Koordinationsmechanismen und die Etablierung des öffentlichen Dienstes. In der sektoralen Dimension wird die Verwaltung im Politikfeld Landwirtschaft betrachtet. In beiden Ländern gab es einen gemeinsamen Ausgangspunkt der Entwicklungen, das sozialistische Verwaltungssystem, und einen ähnlichen Zielpunkt der Verwaltungsreformen in den 1990er Jahren: eine wie auch immer definierte „moderne Verwaltung“. Auch die Rahmenbedingungen des EU-Integrationsprozesses in Mittelosteuropa lassen eher Konvergenzen erwarten. Doch spielen nationale politische Konstellationen eine entscheidende Rolle für die Entwicklungen, so dass man bilanzierend sagen kann: Estland und Polen haben mit Beginn der Transformation unterschiedliche nationale Entwicklungspfade eingeschlagen und ihre Verwaltungssysteme unterscheiden sich mittlerweile stärker voneinander als zur Zeit des Sozialismus.
Das nationale Recht wird mehr und mehr durch EG-Recht beeinflussst. In diesem Zusammenhang ergeben sich bei denjenigen EG-Rechtsakten, die anders als EG-Verordnungen nicht unmittelbar in den Mitgliedstaaten gelten, sondern von diesen in nationales Recht umgesetzt werden müssen, vielfältige Probleme. Diese Probleme behandelt der Verfasser aus der Sicht des Anwalts in einer Weise, dass diejenigen, die sich in der Praxis mit derartigen Umsetzungsfragen zu beschäftigen haben, wertvolle Hinweise für eine konkret zu lösende Umsetzungsproblematik erhalten. Ergänzt und damit noch transparenter werden seine Lösungsvorschläge dadurch, dass der Verfasser sie im zweiten Teil der Untersuchung auf die konkrete Fragestellung anwendet, inwieweit es zu einer Umsetzung bzw. ordnungsgemäßen Umsetzung der in den Jahren 1988 bis 2001 erlassenen Fleischhygienegebührenrechtsakte der EG gekommen ist. Diese Arbeit wurde betreut von Professor Dr. D.C. Umbach an der Universität Potsdam. Aus dem Inhalt: Abgrenzung der Umsetzungszuständigkeit zwischen Bund und Ländern. Anforderungen an das Vorliegen eines Umsetzungsaktes sowie an eine ordnungsgemäße Umsetzung. Rechtsfolgen bei Umsetzungsverstößen. Prozessuale Fragen.
Die internationale Staatengemeinschaft steht Sezessionsbestrebungen zur Aufspaltung bestehender Staaten gewöhnlich ablehnend gegenüber. Gleichzeitig wendet sie in vielen Ländern Instrumente der Entwicklungspolitik an und greift so auch in den dortigen politischen Prozess ein. Untersucht wird, inwiefern Entwicklungspolitik so gestaltet werden kann, dass sie nicht, quasi als Nebenwirkung, einer Sezessionsbewegung zum Durchbruch verhilft. Betrachtet wird dabei neben der gezielten Förderung wirtschaftlichen Wachstums auch das Instrument der Dezentralisierung, das oft als Mittel zur „Beruhigung“ separatistischer Bestrebungen vorgeschlagen wird. Zuvor jedoch wird aufgewiesen, dass eine Politik, die Sezessionen verhindern will, zumindest in vielen Fällen auch moralphilosophisch schlüssig begründet werden kann. Den Abschluss der Arbeit bilden drei Fallstudien zu Sezessionen auf dem Gebiet der ehemaligen Sowjetunion.
Mathematik spielt im Physikunterricht eine nicht unerhebliche Rolle - wenn auch eine zwiespältige. Oft wird sie sogar zum Hindernis beim Lernen von Physik und kann ihr emanzipatorisches Potenzial nicht entfalten. Die vorliegende Arbeit stellt zwei Bausteine für eine begründete Konzeption zum Umgang mit Mathematik beim Lernen von Physik zur Verfügung. Im Theorieteil der Arbeit werden zum Einen wissenschaftstheoretische Aspekte der Rolle der Mathematik in der Physik aufgearbeitet und der physikdidaktischen Forschungsgemeinschaft im Zusammenhang zugänglich gemacht. Zum anderen werden Forschungsergebnisse zu Vorstellungen Lernender über Physik und Mathematik sowie im Bereich der Epistemologie zusammengestellt. Im empirischen Teil der Arbeit werden Vorstellungen zur Rolle der Mathematik in der Physik von Schülerinnen und Schülern der Klassenstufen 10 und 12 sowie Physik-Lehramtstudierenden im Grundstudium mit Hilfe eines Fragebogens erhoben und unter Verwendung inhaltsanalytischer bzw. statistischer Methoden ausgewertet. Die Ergebnisse zeigen unter Anderem, dass Mathematik im Physikunterricht entgegen gängiger Meinungen bei den Lernenden nicht negativ, aber zumindest bei jüngeren Lernenden formal und algorithmisch konnotiert ist.
Die vorliegende Studie beschäftigt sich mit der Planung und Durchführung des Lernprozesses von Schauspielern, wobei das Hauptaugenmerk auf dem Einsatz von Lernstrategien liegt. Es geht darum, welcher Strategien sich professionell Lernende bedienen, um die für die Berufsausübung erforderliche Textsicherheit zu erlangen, nicht um die Optimierung des Lernerfolges.
Die Literaturrecherche machte deutlich, dass aktuelle Studien zum Lernen von Erwachsenen vor allem im berufsspezifischen Kontext angesiedelt sind und sich auf den Erwerb von Kompetenzen, Problemlösestrategien und gesellschaftliche Teilhabe beziehen. Dem Lernen von Schauspielern liegt aber keine Absicht einer Verhaltensänderung oder eines konkreten Wissenszuwachses zugrunde.
Für Schauspieler ist der Auftritt Bestandteil ihrer Berufskultur. Angesichts der Tatsache, dass präzisem Faktenwissen als Grundlage für kompetentes, überzeugendes Präsentieren entscheidende Bedeutung zukommt, sind die Ergebnisse der Studie auch für Berufsgruppen relevant, die öffentlich auftreten müssen, wie z. B. für Priester, Juristen und Lehrende. Das gilt ebenso für Schüler und Studenten, die Referate halten und/oder Arbeiten präsentieren müssen.
Für die empirische Untersuchung werden zwölf renommierte Schauspieler mittels problemzentriertem Interview befragt, anschließend wird eine qualitative Inhaltsanalyse durchgeführt.
In der Auswertung der Daten kann ein deutlicher Zusammenhang zwischen Körper und Sprechpraxis nachgewiesen werden. Ebenso ergibt die Analyse, wie wichtig Bewegung für den Lernprozess ist. Es können Ergebnisse in Bezug auf kognitive, metakognitive und ressourcenorientierte Strategien generiert werden, wobei der Lernumgebung und dem Lernen mit Kollegen entscheidende Bedeutung zukommt.
Das Ziel der Arbeit ist die Darstellung der preußischen Mittelschule für den Zeitraum von 1872 bis 1945. Neben der strukturell-curricularen Entwicklung dieser Schulform werden die Bereiche ‚Chemieunterricht’ und ‚Lehrerausbildung’ schwerpunktmäßig untersucht. Vorgeschaltet ist eine Analyse und Darstellung der zur Mittelschule hinführenden Entwicklung mit ihren politischen, wirtschaftlichen und sozialen Bedingungen. Die für die Strukturierung der Arbeit gewählte Phaseneinteilung orientiert an den bildungspolitischen Zäsuren, die durch die jeweiligen staatlichen ‚Bestimmungen’ charakterisiert sind. Mit diesen in den Jahren 1872, 1910, 1925, 1938 und 1942 vorgelegten Bestimmungen wurde das Mittelschulwesen jeweils neu geordnet. Schwerpunkt der benutzten Quellen ist, die Verbandszeitschrift der Mittelschullehrer, die „Die Mittelschule“. Weiter wurden zeitgenössische Quellen und Literatur sowie pädagogische Zeitschriften für die Analysen benutzt. Untersuchungsschwerpunkt ist die Darstellung der preußischen Mittelschule unter dem Aspekt der bildungspolitischen Institutionalisierung im Jahre 1872. Ein weiterer Untersuchungsschwerpunkt ist der Chemieunterricht. Als bedeutungsvoll für diesen Unterricht müssen die Diskussionen im Untersuchungszeitraum gesehen werden, die über inhaltliche Fragen und die methodische Gestaltung des Unterrichts geführt wurden. Der Einsatz der Schulbücher wird hierbei besonders berücksichtigt. Die Situation der Lehrer wird unter dem Aspekt ihrer Ausbildung untersucht. Als Mittelschullehrer wurden vornehmlich Volksschullehrer eingesetzt, die sich autodidaktisch auf die Prüfung zum Mittelschullehrer vorbereiten mussten. Die Verweigerung einer identitätsstiftenden schulformbezogenen Lehrerausbildung hat der Mittelschule die Möglichkeit genommen, sich frühzeitig zu einer selbständig-unabhängigen Schulform zu entwickeln. Bedeutungsvoll ist das festgestellte Verhalten der Lehrerschaft dieser Schulform in den unterschiedlichen politischen Systemen. In den zeitlichen Phasen steht die Mittelschule als eine zwischen Elementarschule und Gymnasium sich emanzipierende Schulform. Die Ambivalenz in der Stellung äußert sich in dem wechselvollen Verhalten zwischen Standesschule und Öffnung für andere gesellschaftliche Schichten. Im Zusammenhang mit der Verweigerung der Berechtigungen muss die Mittelschule als Anstalt zur Befriedigung der Bildungsansprüche mittlerer Schichten gesehen werden. Sie wurde aber auch als schulischer Abwehrmechanismus der oberen Schichten gegenüber unteren gesellschaftlichen Schichten instrumentalisiert.
Ghana ist ein Musterbeispiel dafür, dass ein Entwicklungsland den Weg zu Good Governance schaffen kann. In vielen Studien wird dem Land im afrikanischen Vergleich heute bescheinigt, hier ein Vorreiter zu sein. Dies ist Ausgangslage der vorliegenden Studie, die der Frage nachgeht „Welche Gründe, Muster und Bedingungen führen zur Entstehung von Good Governance?“. Im Zentrum der vorliegenden Studie steht, wie aus der erkenntnisleitenden Fragestellung hervorgeht, eine empirische Untersuchung zur Entstehung von Good Governance und damit ein Transformationsprozess. Dieser wird bewusst über einen sehr langen Zeitraum (über ein halbes Jahrhundert) untersucht, um auch langfristige Entwicklungen einbeziehen zu können. Die Studie wird mit Hilfe eines „Mixed-Methods-Ansatzes“ sowohl unter Rückgriff auf quantitative als auch auf qualitative Methoden durchgeführt, was sich im Rückblick als sehr ertragreich erwiesen hat. Zunächst wird die Qualität der Governance über den gesamten Zeitraum anhand von sechs Indikatoren gemessen. Danach werden qualitativ die Gründe für die Fort- und Rückschritte analysiert. Dabei lassen sich immer wieder Systematiken herausarbeiten, wie zum Beispiel zirkuläre Entwicklungen, die über viele Jahre den Weg hin zu Good Governance verhinderten, bis jeweils Ausbrüche aus den Kreisläufen geschafft werden konnten. Sowohl in der demokratischen und rechtsstaatlichen Entwicklung als auch bezogen auf die Versorgung der Bevölkerung mit öffentlichen Gütern und die wirtschaftliche Entwicklung. Auch wenn die verschiedenen Bereiche von Good Governance zunächst einzeln untersucht werden, so zeigen sich gleichzeitig deutlich die Wechselwirkungen der Komponenten. Zum Beispiel kristallisiert sich klar heraus, dass Rechtsstaatlichkeit sowohl auf die Stabilität politischer Systeme wirkt, als auch auf die wirtschaftliche Entwicklung. Ebenso beeinflussen diese wiederum die Korruption. Ähnliche Verknüpfungen lassen sich auch bei allen anderen Bereichen nachvollziehen. Die Entwicklung eines Landes kann also nur unter Berücksichtigung eines komplexen Governance-Systems verstanden und erklärt werden. Dabei können die Wechselwirkungen entweder konstruktiv oder destruktiv sein. Die Verflechtungen der einzelnen Bereiche werden in einem Negativ- und dann in einem Positiv-Szenario festgehalten. Diese Idealtypen-Bildung spitzt die Erkenntnisse der vorliegenden Arbeit zu und dient dem analytischen Verständnis der untersuchten Prozesse. Die Untersuchung zeigt, wie Good Governance über das Zusammenspiel verschiedener Faktoren entstehen kann und dass es wissenschaftlich sehr ertragreich ist, Transformationsforschung auf ein komplexes Governance-System auszuweiten. Hierbei werden die vielen empirisch erarbeiteten Ergebnisse zu den einzelnen Transformationen zu komplexen, in sich greifenden Gesamtszenarien zusammengeführt. Da es bisher keine explizite Good Governance-Transformationsforschung gab, wurde hiermit ein erster Schritt in diese Richtung getan. Es wird darüber hinaus deutlich, dass eine Transformation zu Good Governance nicht durch eine kurzfristige Veränderung der Rahmenbedingungen zu erreichen ist. Es geht um kulturelle Veränderungen, um Lernprozesse, um langfristige Entwicklungen, die in der Studie am Beispiel Ghana analysiert werden. In vielen vorangegangenen Transformationsstudien wurde diese zeitliche Komponente vernachlässigt. Ghana hat bereits viele Schritte getan, um einen Weg in die Zukunft und zu Good Governance zu finden. Die Untersuchung dieser Schritte ist Kern der vorliegenden Arbeit. Der Weg Ghanas ist jedoch noch nicht abgeschlossen.
Balance ist als die koordinative Fähigkeit anzusehen, die am meisten durch das Sinnes- und Nervensystem determiniert ist. Damit könnte sie als Indikator für Funktionseinschränkungen des Nervensystems - etwa bei Lernstörungen - von Wert sein. Aussagen über Zusammenhänge zwischen Balance und Kognition werden vielfach diskutiert, sind jedoch noch nicht hinreichend wissenschaftlich gesichert. Hieraus wird die zentrale Zielstellung der Arbeit abgeleitet, das Wissen über somatische und psychische Determinanten von Balance zu erweitern. Betrachtet werden daher bei Vorschulkindern mögliche Zusammenhänge mit dem Geschlecht, mit den anthropometrischen Parametern Körperhöhe und Fußgröße, mit Statikstörungen des Beckens und der Intelligenzleistung. An der Studie nahmen insgesamt 201 drei- bzw. vierjährige Kinder sowie 148 fünf- bzw. sechsjährige Kinder teil. Die Balancefähigkeit wurde mit Hilfe einer Kraftmomentenplattform sowie eines klinischen Tests erfasst und mit anthropometrischen Parametern, qualitativen statischen Befunden bzw. den Ergebnissen des BIVA-Intelligenztests nach SCHAARSCHMIDT verglichen. Für die Auswertung der Balanceparameter wurden sowohl lineare als auch nichtlineare Verfahren eingesetzt, die zum Teil gegenläufige Trends in Bezug auf Zusammenhänge lieferten. Im Ergebnis konnte ein starker Einfluss des Geschlechts nachgewiesen werden. Mädchen zeigten eine bessere Balanceleistung als Jungen sowohl bei 3-Jährigen als auch bei 6-Jährigen. Dies wird als Beleg für den geschlechtsspezifischen Vorsprung der sensomotorischen Entwicklung bei den Mädchen im Alter von 3 bis 6 Jahren angesehen. Außerdem gab es einige Hinweise auf einen Zusammenhang mit der Körperhöhe bzw. Fußlänge. Ein Zusammenhang mit den Umstellungen des ersten Gestaltwandels wird vermutet. Die Daten sprechen für einen statistisch schwachen Einfluss von Störungen der Beckenstatik (Beckenverwringung) auf die Balance bei den Kindern. Es wird vermutet, dass die Verrechnung Balance relevanter Inputs durch nozizeptive Impulse beeinträchtig werden kann. Dies könnte Anlass sein, diesen Aspekt bei Funktionsstörungen mit zu berücksichtigen. Signifikante Zusammenhänge mit Ergebnissen des BIVA-Intelligenztests konnten kaum gefunden werden. Allerdings fallen überzufällig viele Mittelwertvergleiche in Richtung der Hypothese aus, erreichen jedoch nicht Signifikanzniveau. Dies könnte ein Hinweis auf einen schwachen Zusammenhang darstellen, der jedoch mit einer größeren Gruppe noch bestätigt werden müsste. Weitere Forschung auf diesem Gebiet ist erforderlich. Sollte hinreichende Evidenz erreicht werden können, so könnte in der Förderung koordinativer Fähigkeiten und insbesondere der posturalen Balance eine wichtige pädagogische Reserve liegen.
Die vorliegende Studie beschäftigt sich mit dem Berufseinstieg von Lehrpersonen und untersucht Zusammenhänge zwischen der Nutzung von Lerngelegenheiten, sozialer Kooperation, individuellen Determinanten und Kompetenzselbsteinschätzungen, die erstmalig in dieser Zusammenstellung überprüft worden sind.
Die Literaturrecherche machte deutlich, dass der Berufseinstieg eine besonders wichtige Phase für die berufliche Sozialisation darstellt. Die Nutzung von Lerngelegenheiten wurde empirisch noch nicht sehr oft untersucht vor allem nicht im Zusammenhang mit individuellen Determinanten und die Kooperation meist nur unter dem Fokus der Bedeutung für die Schule.
An der empirischen Untersuchung nahmen 223 berufseinsteigende Lehrkräfte aus dem Allgemeinen Pflichtschulbereich in Niederösterreich teil, die verpflichtend in den ersten beiden Dienstjahren Fortbildungen besuchen müssen. Diese Situation ist einzigartig in Österreich, da es nur in diesem Bundesland seit 2011 eine verpflichtend zu besuchende Berufseinstiegsphase gibt. Ab 2019 wird es in Österreich eine Induktionsphase für alle Lehrkräfte geben, die in den Beruf einsteigen.
Mit Hilfe von Strukturgleichungsmodellen wurden die Zusammenhänge untersucht und es zeigte sich, dass es diese in allen Bereichen gibt. Am Ende konnte ein neues Theoriemodell zur Nutzung von Lerngelegenheiten abgeleitet werden, das sich in Theorien zu professionellen Kompetenzentwicklung und zu Lernen in Aus-, Fortund Weiterbildung einordnen lässt.
Problemstellung: Schuleingangsuntersuchungen belegen zunehmend Defizite in der motorischen und kognitiven Entwicklung von Einschülern. Im Hinblick auf Präventivmaßnahmen gilt dem motorischen und kognitiven Entwicklungsstand von Vorschulkindern ein verstärktes Forschungsinteresse. Die bisherige Wissensbasis soll mit aktuellen Untersuchungsergebnissen zum Zusammenhang von Motorik und Kognition bei Vorschulkindern erweitert werden. Methodik: Untersucht wurden 101 Kinder in vier Potsdamer Kitas im Alter von 3,5-4,6 Jahren. Zur Überprüfung der koordinativen und konditionellen Fähigkeiten wurden Standweitsprung, Sechs-Meter-Lauf, Balancieren, Einbeinstand und Seitliches Umsetzen sowie Handkoordination eingesetzt (KTK; Kiphard & Schilling 1972; Vogt 1978). Zusätzlich wurden in Anlehnung an das Brain-Gym-Konzept (Dennison 1984) körpermitteüberschreitende Armbewegungen qualitativ bewertet und auf Validität und Reliabilität geprüft. Die kognitiven Fähigkeiten wurden mit dem Bildbasierten Intelligenztest getestet (Schaarschmidt, Ricken, Kieschke & Preuß 2004). Ergebnisse: Jungen sind deutlich schneller und kräftiger als Mädchen, können aber geringfügig schlechter balancieren und feinkoordinieren. Ein Entwicklungssprung in den motorischen Leistungen ab dem vierten Lebensjahr konnte nachgewiesen werden. Weiterhin zeigte sich ein positiver signifikanter Zusammenhang zwischen der Gleichgewichtsfähigkeit und kognitiven Fähigkeiten bei den männlichen 3,5-Jährigen (r=.28-r=.32; p=0,01). Dies bestätigt: Je jünger die Kinder, desto stärker der Zusammenhang von Motorik und Intelligenz. Bei einseitiger Testung zeigten sich schwache signifikante Korrelationen von kognitiven Leistungen der Kinder und Qualifikation der Eltern (r=.18 - r=.21; p=0,01). Die Qualitative Bewertung der Arm- und Handbewegungen eignet sich wegen unbestätigter Validität und Reliabilität nicht als Untersuchungsmethode im Sinne einer frühfunktionellen Diagnostik.
Die vorliegende Studie beschäftigt sich mit dem nach einer Strukturveränderung in der Sekundarstufe I entstandenen Schulmodell der Neuen Mittelschule. Untersucht wird, ob sich durch dieses Schulmodell und der damit intendierten neuen Lehr-, Lern- und Prüfungskultur Zusammenhänge zwischen gemessenen mathematischen Kompetenzen der Schüler und den durch Lehrer vergebenen Jahresnoten feststellen lassen.
Die Literaturrecherche macht deutlich, dass die Kritik an der Monokultur des leh-rerzentrierten Unterrichts zwar zu einer neuen Lehr-, Lern- und Prüfungskultur führt, deren Inhalte sind aber recht unterschiedlich, komplex und nicht eindeutig definiert. In der NMS soll die Leistungsbewertung als Lernhilfe fungieren, aber auch verlässliche Aussagen über die Leistung der Schüler treffen. Zur Wirkung der neuen Lernkultur in der NMS gibt es ebenso keine empirischen Befunde wie über die Wirkung der Leistungsbewertung.
An der empirischen Untersuchung nehmen 79 Schüler der sechsten Schulstufe aus drei Neuen Mittelschulen (dicht besiedelte, mittel besiedelte, dünn besiedelte Gemeinde) in Niederösterreich teil. In jeder Schule werden zwei Klassen untersucht. Dabei werden der Kompetenzstand in Mathematik, Schülerzentriertheit sowie Sozial- und Leistungsdruck aus Sicht der Schüler gemeinsam mit der Jah-resnote erhoben.
Für die Studie wird ein Pfadmodell entwickelt und mit einer Pfadanalyse ausge-wertet. Dabei zeigen sich zwar Zusammenhänge zwischen den gemessenen Kompetenzen in Mathematik und den Jahresnoten. Diese Jahresnoten besitzen über die Klasse bzw. die Schule hinaus aber nur eine bedingte Aussagekraft über die erbrachten Leistungen.
Diese Arbeit befasst sich mit den sogenannten relativähnlichen Sätzen im Frühneuhochdeutschen und leistet somit einen Beitrag zur Subordinationsforschung des älteren Deutsch. Relativähnliche Sätze sind formal durch ein satzinitiales anaphorisches d-Element und die Endstellung des finiten Verbs gekennzeichnet. Semantisch gesehen beziehen sie sich auf den vorangehenden Satz als Ganzes, indem sie ihn in bestimmter Weise weiterführen oder kommentieren. In der bisherigen Forschung werden diese Sätze satztypologisch als Hauptsätze mit Verbendstellung analysiert (vgl. dazu Maurer 1926, Behaghel 1932 und Lötscher 2000). Nach der ausführlichen Diskussion der formalen Abhängigkeitsmarker im älteren Deutsch sowie anhand einer umfangreichen korpusbasierten Untersuchung wird in dieser Arbeit gezeigt, dass relativähnliche Sätze im Frühneuhochdeutschen auch als abhängige Sätze - analog zu den weiterführenden Relativsätzen im Gegenwartsdeutschen - analysiert werden können. Die weiterführenden Relativsätze im Gegenwartsdeutschen enthalten satzinitial auch ein anaphorisches Element, das sich auf das Gesagte in dem vorangehenden Satz bezieht. Verbendstellung weisen sie ebenfalls auf (mehr zur Grammatik der weiterführenden Relativsätze vgl. insb. Brandt 1990 und Holler 2005). Über die Untersuchung relativähnlicher Sätze hinaus befasst sich diese Arbeit ausführlich mit formalen Abhängigkeitsmarkern des älteren Deutsch, wie Verbendstellung, Einleiter und afinite Konstruktion.
Im Fokus der bildungshistorischen und doppelbiografischen Dissertation steht die Darstellung des vielseitigen Reformengagements der Torhorst-Schwestern Adelheid und Marie im (Aus-) Bildungswesen der Weimarer Republik. Die Begriffe „Reform“ und „Engagement“ stellen tragende inhaltliche Signaturen der quellenbasierten Annäherung an das Geschwisterpaar dar. Thematisiert werden ihre Berufsbiografien in ihren jeweiligen bildungspolitischen sowie bildungspraktischen Wirkungskreisen – inmitten der ersten „echten“ deutschen Demokratie. Die Studie zielt insbesondere darauf ab, den Kreis der bildungshistorischen Repräsentantinnen für eine konstruktive Ausgestaltung des (Fort-)Bildungswesens im Sinne eines notwendigen, aber nicht realisierten Modernisierungs- und Demokratisierungsprozesses in jenem Zeitraum zu erweitern. Die Aufarbeitung des bisher in der bildungsgeschichtlichen Forschung weitestgehend unbekannten Schaffens vermag es, den vielschichtigen Bedeutungsebenen von Schulreform(en) und Reformpädagogik gerecht(er) zu werden. Die Arbeit intendiert zudem eine Horizonterweiterung des bildungshistorischen Blickfeldes – vor allem in Bezug auf bildungspolitische und schulpraktische Realisierungen von essenziellen Reformen in den Bereichen sekundärer (Aus-)Bildungseinrichtungen.
Die Schwestern bestimmten sowohl als kommunalpolitische als auch als schulpraktische Akteure die neue Praxis und die neuen Anforderungen der demokratischen Staatsform mit. Adelheid Torhorst kämpfte – über ihren kommunalen Verantwortungsradius hinausreichend – aktiv im Rahmen ihrer von 1924–1931 andauernden Mitgliedschaft im Bund der Freien Schulgesellschaften (BFS) für eine gesamte Weltlichkeit des deutschen Schul- und (Aus-)Bildungswesens. Beide Frauen mussten auf ihren Tätigkeitsebenen erfahren, dass ihre immer stärker werdenden sozialistisch geprägten Vorstellungen bezüglich der deutschen Bildungslandschaft Illusionen blieben. Vielmehr erkannten sie zunehmend einen Zusammenhang zwischen den etablierten Machtstrukturen; ein gesellschaftlicher Fortschritt, der sich in ihren Augen in einem sozial durchlässigen und weltlichen Bildungswesen formierte, erforderte vor allem strukturelle Veränderungen. Für diese jedoch gab es keine gesellschaftlichen und politischen Mehrheiten.
Die doppelbiografische Perspektive mit dem Fokus auf das Bleibende des Reformengagements sensibilisiert für gegenwärtige bildungspolitische Streitfragen. Der kritisch-reflexive Blick geht zunächst mit einer Würdigung der qualifizierenden deutschen (Aus-) Bildungslandschaft einher; schätzt die liberalen Errungenschaften wie die Entscheidungsfreiheit der Eltern in Bezug zum Besuch des Religionsunterrichts ihrer Kinder als ein Privileg einer demokratischen, sozial offenen Gesellschaft. Es braucht in einer herausfordernden Zukunft mehr denn je mutige Akteure mit progressivem Reformpotenzial. Das wegweisende Engagement der Torhorst-Schwestern stand im Kontext eines schulischen sowie gesellschaftlichen Fortschrittgedankens, der sowohl die Moderne positiv prägt und trägt, der aber auch für deren Krisen und Konflikte steht. Im gegenwärtigen (Aus-)Bildungswesen entstehen ebenso immer wieder neue Spannungen und Reformbedarfe, die es gilt, mit entsprechenden bildungspolitischen Richtlinien „von oben“ gesetzlich neu zu reglementieren – mit Leben gefüllt werden sie mit dem Engagement „von unten“.
Der W-Fragen-Erwerb stellt einen Teilbereich der kindlichen Syntaxentwicklung dar, die sich maßgeblich innerhalb der ersten drei Lebensjahre eines Kindes vollzieht. Eine wesentliche Rolle spielen dabei zwei Bewegungsoperationen, die sich auf die Position des Interrogativpronomens an die erste Stelle der W-Frage sowie die Position des Verbs an die zweite Stelle beziehen. In drei Studien wurde einerseits untersucht, ob deutschsprachige Kinder, die noch keine W-Fragen produzieren können, in der Lage sind, grammatische von ungrammatischen W-Fragen zu unterscheiden und andererseits, welche Leistungen sprachunauffällige und sprachauffällige deutschsprachige Kinder beim Verstehen und Korrigieren unterschiedlich komplexer W-Fragen (positive und negative W-Fragen) zeigen. Die Ergebnisse deuten auf ein frühes syntaktisches Wissen über W-Fragen im Spracherwerb hin und stützen damit die Annahme einer Kontinuität der kindlichen Grammatik zur Standardsprache. Auch scheinen sprachauffällige Kinder sich beim Erwerb von W-Fragen nicht qualitativ von sprachgesunden Kindern zu unterscheiden, sondern W-Fragen lediglich später korrekt umzusetzen. In beiden Populationen konnte ein syntaktischer Ökonomieeffekt beobachtet werden, der für eine spätere Umsetzung der Verbbewegung im Vergleich zur Bewegung des W-Elementes spricht.
Im Landschaftszustand und in der Landschaftsentwicklung kommen funktionale Beziehungen zwischen dem naturbedingten Energie-, Wasser- und Stoffhaushalt einerseits und den Auswirkungen der Landnutzung andererseits zum Ausdruck. Gegenwärtig verändert der globale Anstieg der bodennahen Temperaturen vielerorts den landschaftlichen Energie-, Wasser- und Stoffhaushalt, wobei besonders in Trockengebieten zu erwarten ist, dass dieser Trend in Verbindung mit einer unangepassten Landnutzung das Regenerationsvermögen der Vegetation einschränkt und zur Zerstörung der Bodendecke führt. Für die Mongolei und für benachbarte Gebiete Asiens sind in Szenarien zur globalen Erwärmung hohe Werte des Temperaturanstiegs prognostiziert worden. Eine globale Einschätzung der anthropogen induzierten Bodendegradation hat diese Region als stark oder extrem stark betroffen eingestuft. Vor diesem Hintergrund wurde im Uvs-Nuur-Becken, das im Nordwesten der Mongolei und damit in einer der trockensten Regionen des Landes gelegen ist, untersucht, wie sich der globale Temperaturanstieg auf der lokalen und regionalen Ebene widerspiegelt und wie der Landschaftshaushalt dabei verändert wird. Die Auswirkungen des sommerlichen Witterungsverlaufes auf den Landschaftszustand sind 1997 bis 1999 an einem Transsekt erfasst worden, das sich zwischen dem Kharkhiraa-Gebirge am Westrand des Beckens und dem See Uvs Nuur im Beckeninneren von den Polsterfluren und Matten der alpinen Stufe über die Gebirgswaldsteppe, die Trockensteppe bis zur Halbwüste erstreckt. An neun Messpunkten wurden witterungsklimatische Daten in Verbindung mit Merkmalen der Vegetation, des Bodens und der Bodenfeuchte aufgenommen. Die im Sommer 1998 gewonnenen Messwerte wurden mit Hilfe einer Clusteranalyse gebündelt und verdichtet. Auf dieser Grundlage konnten landschaftliche Zustandsformen inhaltlich gekennzeichnet, zeitlich eingeordnet und durch Zeit-Verhaltens-Modelle (Stacks) abgebildet werden. Aus den Zeit-Verhaltens-Modellen wird ersichtlich, dass man Zustandsformen, in denen die Hitze und die Trockenheit des Sommers 1998 besonders stark zum Ausdruck kommen, an allen Messpunkten beobachten kann, nimmt man die Station auf dem fast 3.000 m hohen Gipfel des Khukh Uul sowie die grundwasserbeeinflusste Station in unmittelbarer Seenähe aus. In ihrer extremen Form sind Trockenperioden jedoch nur im Beckeninneren und am Fuß der Randgebirge, also in der Halbwüste, in der Trockensteppe und in der Wiesensteppe aufgetreten. Im Bergwald sowie im Bereich der alpinen Matten und Polsterfluren fehlen sie. Am stärksten sind die grundwasserfreien Bereiche der Halbwüste von der Hitze und Niederschlagsarmut des Sommers 1998 betroffen. An vier Fünfteln der Tage des Beobachtungszeitraumes herrscht an diesem Messpunkt extreme Trockenheit. Es fällt entweder gar kein Niederschlag oder nur so wenig, dass der seit dem Frühjahr erschöpfte Bodenwasservorrat nicht aufgefüllt wird. Das Verhältnis zwischen Niederschlag und potenzieller Verdunstung liegt hier bei 1:12. In der Halbwüste zeichnet sich eine fortschreitende Desertifikation ab, zumal hier eine nichtangepasste Weidenutzung dominiert, in der Ziegen eine immer größere Rolle spielen. Dies gilt insbesondere für Bereiche in Siedlungsnähe. Örtlich ist auch der Bestand der Trockensteppe gefährdet, die sich an die Halbwüste zum Beckenrand hin anschließt. Hier ist nicht nur die Viehdichte am höchsten, sondern hier werden auch die meisten unbefestigten Fahrwege wild angelegt und die Bodendecke damit zerstört. Dies kann im Endeffekt zu einem Übergreifen von Prozessen der Desertifikation führen. Aus methodischer Sicht zeigt sich, dass die Kennzeichnung landschaftlicher Zustandsformen durch Zeit-Verhaltens-Modelle die Ermittlung der Auswirkungen von Witterung und Klima auf den Landschaftszustand erleichtert, da sie deren Aussage konzentriert. Zur Interpretation der Ergebnisse ist jedoch ein Rückgriff auf die beschreibende Darstellung der Messwerte notwendig. Die im westlichen Uvs-Nuur-Becken und seinen Randgebirgen angewandte Verfahrensweise ermöglicht es, globale Aussagen zur globalen Erwärmung der Kontinente regional oder lokal zu überprüfen und zu untersetzen."
Zum Einfluss von Adaptivität auf die Wahrnehmung von Komplexität in der Mensch-Technik-Interaktion
(2021)
Wir leben in einer Gesellschaft, die von einem stetigen Wunsch nach Innovation und Fortschritt geprägt ist. Folgen dieses Wunsches sind die immer weiter fortschreitende Digitalisierung und informatische Vernetzung aller Lebensbereiche, die so zu immer komplexeren sozio-technischen Systemen führen. Ziele dieser Systeme sind u. a. die Unterstützung von Menschen, die Verbesserung ihrer Lebenssituation oder Lebensqualität oder die Erweiterung menschlicher Möglichkeiten. Doch haben neue komplexe technische Systeme nicht nur positive soziale und gesellschaftliche Effekte. Oft gibt es unerwünschte Nebeneffekte, die erst im Gebrauch sichtbar werden, und sowohl Konstrukteur*innen als auch Nutzer*innen komplexer vernetzter Technologien fühlen sich oft orientierungslos. Die Folgen können von sinkender Akzeptanz bis hin zum kompletten Verlust des Vertrauens in vernetze Softwaresysteme reichen. Da komplexe Anwendungen, und damit auch immer komplexere Mensch-Technik-Interaktionen, immer mehr an Relevanz gewinnen, ist es umso wichtiger, wieder Orientierung zu finden. Dazu müssen wir zuerst diejenigen Elemente identifizieren, die in der Interaktion mit vernetzten sozio-technischen Systemen zu Komplexität beitragen und somit Orientierungsbedarf hervorrufen.
Mit dieser Arbeit soll ein Beitrag geleistet werden, um ein strukturiertes Reflektieren über die Komplexität vernetzter sozio-technischer Systeme im gesamten Konstruktionsprozess zu ermöglichen. Dazu wird zuerst eine Definition von Komplexität und komplexen Systemen erarbeitet, die über das informatische Verständnis von Komplexität (also der Kompliziertheit von Problemen, Algorithmen oder Daten) hinausgeht. Im Vordergrund soll vielmehr die sozio-technische Interaktion mit und in komplexen vernetzten Systemen stehen. Basierend auf dieser Definition wird dann ein Analysewerkzeug entwickelt, welches es ermöglicht, die Komplexität in der Interaktion mit sozio-technischen Systemen sichtbar und beschreibbar zu machen.
Ein Bereich, in dem vernetzte sozio-technische Systeme zunehmenden Einzug finden, ist jener digitaler Bildungstechnologien. Besonders adaptiven Bildungstechnologien wurde in den letzten Jahrzehnten ein großes Potential zugeschrieben. Zwei adaptive Lehr- bzw. Trainingssysteme sollen deshalb exemplarisch mit dem in dieser Arbeit entwickelten Analysewerkzeug untersucht werden. Hierbei wird ein besonderes Augenmerkt auf den Einfluss von Adaptivität auf die Komplexität von Mensch-Technik-Interaktionssituationen gelegt. In empirischen Untersuchungen werden die Erfahrungen von Konstrukteur*innen und Nutzer*innen jener adaptiver Systeme untersucht, um so die entscheidenden Kriterien für Komplexität ermitteln zu können. Auf diese Weise können zum einen wiederkehrende Orientierungsfragen bei der Entwicklung adaptiver Bildungstechnologien aufgedeckt werden. Zum anderen werden als komplex wahrgenommene Interaktionssituationen identifiziert. An diesen Situationen kann gezeigt werden, wo aufgrund der Komplexität des Systems die etablierten Alltagsroutinen von Nutzenden nicht mehr ausreichen, um die Folgen der Interaktion mit dem System vollständig erfassen zu können. Dieses Wissen kann sowohl Konstrukteur*innen als auch Nutzer*innen helfen, in Zukunft besser mit der inhärenten Komplexität moderner Bildungstechnologien umzugehen.
Die Ausprägung der Lateralität der Körperextremitäten steht in engem Zusammenhang mit der Hemisphärenspezialisierung des menschlichen Gehirns. Die Lateralität und die Dominanz einer Hemisphäre mit ihren Auswirkungen auf die Leistungsfähigkeit ist ein bislang unvollständig untersuchtes Phänomen im Sport. In der vorliegenden Arbeit soll daher die Bedeutung der Seitigkeitsausprägung im Rahmen sportlicher Bewegungsabläufe geprüft werden. Sowohl bei Messungen im "Freiwasser", als auch in der "Kanu–Gegenstromanlage" im Bereich des Kanurennsportes werden seit einigen Jahren sich in Qualität und Quantität unterscheidende Kraft–Zeit–Funktionen der linken und rechten Körperseite beobachtet, die zwar dokumentiert, aber bislang ungeprüft in ihrer Bedeutung als leistungsbeeinflussend angenommen werden. Im Zeitraum von Oktober 1997 bis Oktober 2000 wurden 275 Kajakfahrer und Canadierfahrer im Alter zwischen 11 und 20 Jahren zweimal jährlich (März und Oktober) mit einem umfangreichen trainings- und bewegungswissenschaftlichen sowie biomechanischen Instrumentarium untersucht. Die Athleten gehören zum Nachwuchs- und Anschlusskader des LKV Brandenburg. Schwerpunkt der Fragestellung ist der Zusammenhang von auftretenden Kraftdifferenzen zwischen der linken und rechten oberen Extremität und sportartspezifischen Leistungen unter Laborbedingungen und Feldbedingungen. Es wurden objektive Daten zu ausgewählten Kraftfähigkeiten der oberen Arm–Beuge–Schlinge an einem Kraftdiagnosegerät, Kraftverläufe am Messpaddel während Leistungsüberprüfungen im "Kanu–Gegenstromkanal" und im "Freiwasser" über 250 m und 2.000 m im Jahresverlauf erhoben. Die Ergebnisse zeigen einen Trend der im Altersverlauf ansteigenden Differenz der Mittelwertunterschiede in der Maximalkraft zwischen dem linken und rechten Arm. Bei bestehenden Maximalkraftdifferenzen zwischen linker und rechter oberer Extremität in der Längsschnittgruppe liegen die Leistungen mit dem rechten Arm deutlich über den Kraftleistungen des linken Arms und sind nicht zufällig. Mit steigendem Maximalkraftniveau nimmt überraschenderweise auch die Differenz der Maximalkraft zwischen der linken und rechten oberen Extremität trotz bilateralen Trainings zu. Die Ergebnisse der EMG–Analyse bestätigen, dass die Maximalkraft leistungsbestimmend für die Bootsleistungen ist. In den EMG–Signalverläufen werden die unterschiedlichen Belastungen der Labor– und Feldbedingungen mit individuellen Charakteristika nachgezeichnet. Deutlich unterscheiden sich die Kraftverläufe im "Freiwasser" gegenüber den Kraftverläufen in der "Kanu–Gegenstromanlage". Bei der vorliegenden Untersuchung handelt es sich um eine erste empirische Arbeit zur Auswirkung von Seitigkeitsunterschieden in zyklischen Sportarten auf der Expertiseebene. In der Untersuchung wurden methodische Verfahren eingesetzt, die dem derzeitigen Forschungsstand in der Trainings- und Bewegungswissenschaft entsprechen. Neben varianzanalytischen Verfahren der Auswertung zur Darstellung von Mittelwertunterschieden und Zusammenhänge prüfenden Verfahren wurden ebenso explorative EMG–Analysen angewandt. Die Ergebnisse aus dem Längsschnitt belegen bei ausschließlich rechtshändigen Probanden, dass die Schlussfolgerung von bevorzugter Extremität auf ein höheres Kraftniveau nicht eineindeutig ist. Zwischen den oberen Extremitäten bei Kanurennsportlern bestehen nicht nur zufällige Kraftunterschiede, trotz des bilateralen Trainings. Kontrovers diskutiert wird die Beziehung von bevorzugter Extremität und der Höhe der Kraftentfaltung. Im Alltagsverständnis wird häufig angenommen, dass ein höheres Maximalkraftniveau in der Extremität vorliegen muss, die auch die bevorzugte (z.B. Schreibhand) ist (WIRTH & LIPHARDT, 1999). Diese Eindeutigkeit konnte in der durchgeführten Untersuchung nicht bestätigt werden. Wie die Ergebnisse dieser Untersuchung deutlich zeigen, nimmt mit der höheren Maximalkraft aber auch die Differenz der Kraftleistungen zwischen dem linken und rechten Arm bei bilateral ausgerichtetem Training zu. FISCHER (1988; 1992) wies nach, dass sich ein Training auf der subdominanten Seite in einem kontralateralen Leistungstransfer auf der dominanten Seite positiv auswirkte. Erkenntnisse von KUHN (1986) und HOLLMANN & HETTINGER (2000) unterstützen nachhaltig die Ergebnisse. Die EMG–Ergebnisse zeigen die individuelle Reaktion auf die Belastungsanforderungen. Die elektromyographischen Daten beziehen sich auf den neuromuskulären Komplex. Somit sprechen hohe Amplitudenwerte einerseits für eine hohe Innervation der beteiligten motorischen Einheiten an der Bewegungsausführung und andererseits für einsetzende Ermüdungserscheinungen im Muskel. In Bezug auf die Ermüdung der oberen Extremitätenmuskeln der rechten und linken Seite beschreiben WILLIAMS, SHARMA & BILODEAU (2002) keine signifikanten Unterschiede zwischen der dominanten und nichtdominanten Handseite.
Die Frage nach der Herkunft und der dynamischen Entwicklung langlebiger kosmischer Magnetfelder ist in vielen Details noch unbeantwortet. Es besteht zwar kein Zweifel daran, dass das Magnetfeld der Erde und anderer kosmischer Objekte durch den sogenannten Dynamoeffekt verursacht werden, der genaue Mechanismus als auch die notwendigen Voraussetzungen und Randbedingungen der zugrundeliegenden Strömungen sind aber weitgehend unbekannt. Die für einen Dynamo interessanten Strömungsmuster, die im Inneren von Himmelskörpern durch Konvektion und differentielle Rotation entstehen, sind Konvektionsrollen parallel zur Rotationsachse. Auf einer Strömung mit eben solcher Geometrie, der sogenannten Roberts-Strömung, basieren die in der vorliegenden Arbeit untersuchten Dynamomodelle. Mit Methoden der nichtlinearen Dynamik wird versucht, das Systemverhalten bei Änderung der Systemparamter genauer zu charakterisieren. Die numerischen Untersuchungen beginnen mit einer Analyse der Dynamoaktivität der Roberts-Strömung in Abhängigkeit von den zwei freien Parametern in den Modellgleichungen, der magnetischen Prandtl-Zahl und der Stärke des Energieinputs. Gefunden werden verschiedene Lösungstypen die von einem stationären Magnetfeld über periodische bis zu chaotischen Zuständen reichen. Die yugrundeliegenden Symmetrien werden beschrieben und die Bifurkationen, die zum Wechsel der Lösungstypen führen, charakterisiert. Zusätzlich gibt es Bereiche bei sehr kleinen Prandtl-Zahlen, in denen überhaupt kein Dynamo existiert. Dieses Verhalten wird in der Literatur auch für viele andere numerisch ausgewertete Modelle beschrieben. Im Übergangsbereich zwischen dynamoaktivem und dynamoinaktivem Bereich wird das Auftreten einer sogenannten Blowout-Bifurkation gefunden. Desweiteren beschäftigt sich die Arbeit mit der Frage, inwiefern Helizität, also eine schraubenförmige Bewegung, der Strömung den Dynamoeffekt beeinflusst. Dazu werden ähnliche Strömungstypen verglichen, die sich hauptsächlich in ihrem Helizitätswert unterscheiden. Es wird gefunden, dass ein bestimmter Wert der Helizität nicht unterschritten werden darf, um einen stabilen Roberts-Dynamo zu erhalten.
Einleitung & Problemstellung: Beschwerden nach Beschleunigungsverletzungen der Halswirbelsäule sind oft nur unzureichend einzuordnen und diagnostizierbar. Eine eindeutige Diagnostik ist jedoch für eine entsprechende Therapie wie auch möglicherweise entstehende versicherungsrechtliche Forderungen notwendig. Die Entwicklung eines geeigneten Diagnoseverfahrens liegt damit im Interesse von Betroffenen wie auch Kostenträgern. Neben Störungen der Weichteilgewebe ist fast immer die Funktion der Halsmuskulatur in Folge eines Traumas beeinträchtigt. Dabei wird vor allem die sensorische Funktion der HWS-Muskulatur, die an der Regulation des Gleichgewichts beteiligt ist, gestört. In Folge dessen kann angenommen werden, dass es zu einer Beeinträchtigung der Gleichgewichtsregulation kommt. Die Zielstellung der Arbeit lautete deshalb, die möglicherweise gestörte Gleichgewichtsregulation nach einem Trauma im HWS-Bereich apparativ zu erfassen, um so die Verletzung eindeutig diagnostizieren zu können. Methodik: Unter Verwendung eines posturographischen Messsystems mit Kraftmomentensensorik wurden bei 478 Probanden einer Vergleichsgruppe und bei 85 Probanden eines Patientenpools Kraftmomente unter der Fußsohle als Äußerung der posturalen Balanceregulation aufgezeichnet. Die gemessenen Balancezeitreihen wurden nichtlinear analysiert, um die hohe Variabilität der Gleichgewichtsregulation optimal zu beschreiben. Über die dabei gewonnenen Parameter kann überprüft werden, ob sich spezifische Unterschiede im Schwankungsverhalten anhand der plantaren Druckverteilung zwischen HWS-Traumatisierten und den Probanden der Kontrollgruppe klassifizieren lassen. Ergebnisse: Die beste Klassifizierung konnte dabei über Parameter erzielt werden, die das Schwankungsverhalten in Phasen beschreiben, in denen die Amplitudenschwankungen relativ gering ausgeprägt waren. Die Analysen ergaben signifikante Unterschiede im Balanceverhalten zwischen der Gruppe HWS-traumatisierter Probanden und der Vergleichsgruppe. Die höchsten Trennbarkeitsraten wurden dabei durch Messungen im ruhigen beidbeinigen Stand mit geschlossenen Augen erzielt. Diskussion: Das posturale Balanceverhalten wies jedoch in allen Messpositionen eine hohe individuelle Varianz auf, so dass kein allgemeingültiges Schwankungsmuster für eine Gruppengesamtheit klassifiziert werden konnte. Eine individuelle Vorhersage der Gruppenzugehörigkeit ist damit nicht möglich. Die verwendete Messtechnik und die angewandten Auswerteverfahren tragen somit zwar zu einem Erkenntnisgewinn und zur Beschreibung des Gleichgewichtsverhaltens nach HWS-Traumatisierung bei. Sie können jedoch zum derzeitigen Stand für den Einzelfall keinen Beitrag zu einer eindeutigen Bestimmung eines Schleudertraumas leisten.
In dieser Arbeit wurden die Möglichkeiten und Grenzen für Zirkulardichroismus-Messungen mit Synchrotronstrahlung untersucht. Dazu wurde ein Messaufbau für Zirkulardichroismus-Messungen an zwei Strahlrohren am Berliner Elektronenspeicherring für Synchrotronstrahlung eingesetzt, die für Messungen im Bereich des ultravioletten Lichts geeignet sind. Eigenschaften der Strahlrohre und des Messaufbau wurden in einigen wichtigen Punkten mit kommerziellen Zirkulardichroismus-Spektrometern verglichen. Der Schwerpunkt lag auf der Ausdehnung des zugänglichen Wellenlängenbereichs unterhalb von 180 nm zur Untersuchung des Zirkulardichroismus von Proteinen in diesem Bereich. In diesem Bereich ist es nicht nur die Lichtquelle sondern vor allem die Absorption des Lichts durch Wasser, die den Messbereich bei der Messung biologischer Proben in wässriger Lösung einschränkt. Es wurden Bedingungen gefunden, unter denen der Messbereich auf etwa 160 nm, in einigen Fällen bis auf 130 nm ausgedehnt werden konnte. Dazu musste die Pfadlänge deutlich reduziert werden und verschieden Probenküvetten wurden getestet. Der Einfluss der dabei auftretenden Spannungsdoppelbrechung in den Probenküvetten auf das Messsignal konnte mit einem alternativen Messaufbau deutlich reduziert werden. Systematische Fehler im Messsignal und auftretende Strahlenschäden begrenzen jedoch die Zuverlässigkeit der gemessenen Spektren. Bei Proteinfilmen schränkt die Absorption von Wasser den Messbereich kaum ein. Es wurden jedoch meist deutliche Unterschiede zwischen den Spektren von Proteinfilmen und den Spektren von Proteinen in wässriger Lösung festgestellt. Solange diese Unterschiede nicht minimiert werden können, stellen Proteinfilme keine praktikable Alternative zu Messungen in wässriger Lösung dar.
Die Arbeit geht der Frage nach, wie Innovationen in einer Organisation des öffentlichen Sektors aufgenommen wurden und zu welchen Veränderungen dies führte. Im Vordergrund steht hier nicht die Innovation selbst, sondern vielmehr die Anpassungsmechanismen in der Organisation. Folgende Forschungsfragen wurden dazu gewählt:
1. Wie wurde das Instrument Zielsteuerung bzw. Zielvereinbarung im öffentlichen Sektor eingeführt und in die Managementroutinen integriert?
2. Welche Faktoren führen zu einer Integration der Zielsteuerung in die Managementroutinen?
3. Welche Empfehlungen für die Praxis lassen sich daraus ableiten?
Dazu wurde ein Landesbetrieb in Brandenburg detailliert untersucht und 31 Interviews mit Führungskräften der zweiten und dritten Managementebene geführt. In dieser Organisation wurde im Rahmen der deutschlandweiten Reformbewegung in der öffentlichen Verwaltung das Instrument Zielsteuerung bzw. Zielvereinbarung eingeführt und mit ganz konkreten Erwartungen verbunden. Als Untersuchungseinheit der möglichen Anpassungen und Veränderungen wurde das Konstrukt der Managementroutinen herangezogen, welche als kollektive Handlungsmuster ganz bewusst individuelle Verhaltensweisen ausklammerten.
Die Arbeit konnte eine Reihe von früheren Erkenntnissen bestätigen und zudem nachweisen, dass, entgegen des häufigen Vorurteils, Innovationen aus dem privatwirtschaftlichem Raum doch auch zu positiven Veränderungen in Organisationen der öffentlichen Hand führen können. Es kam hier jedoch nicht zur Entwicklung neuer, sondern zu einer Anpassung der bestehenden Routinen. Auf dieser Basis konnte festgestellt werden, dass ein stufenweiser Einführungsvorgang zunächst auf der Ebene der veränderten Zielvorstellungen der Führungskräfte zum Erfolg führte. Erst nach der Anpassung auf dieser „ostentativen“ Ebene kam es mit etwas Verzögerung zu einer Veränderung auf der Ebene der konkreten Handlungen. Im Hinblick auf die Einflussfaktoren der Innovation konnte festgestellt werden, dass viele Aspekte der Zielsetzungstheorie nach wie vor relevant sind und instabile politische Rahmenbedingungen zu wesentlichen Einschränkungen der Entfaltungsmöglichkeiten der Innovation führen können. Für viele Einflussfaktoren konnten allerdings sowohl positive als auch negative Wirkungen identifiziert werden.
Zeugenschaft im Bild
(2015)
Zentrales Anliegen der Dissertation ist, Zeugenschaft als visuelle Strategie zu beleuchten. In Abgrenzung zur These der Undarstellbarkeit der Shoah wird der Begriff der Sichtbarmachung nutzbar gemacht, um Prozesse und die Wirkung von Bildern im Zusammenhang mit Zeugenschaft herauszustellen. Ausgangspunkt dabei ist, dass bildliche Zeugnisse einen Gegenpol zu den standardisierten Visualisierungspraktiken der Shoah bieten, sprich dem historischen Bildmaterial aufgenommen durch die Alliierten und der Nationalsozialisten. In der Arbeit wird das historische Bildmaterial als Visualisierungspraxis problematisiert und visuellen Zeugnissen gegenübergestellt, die Augen- und Überlebenszeugen der Shoah, aber auch authentische Orte des Geschehens aus einer nachträglichen Perspektive zeigen. Dabei werden insbesondere zwei kritische Strategien des Umgangs mit historischen Bildern der Shoah hervorgehoben: das Hinterfragen von Archivbildern innerhalb des Films (Harun Farockis AUFSCHUB, 2007) und die Verweigerung von Archivbildern aus der Zeit des Zweiten Weltkrieges (Claude Lanzmanns SHOAH, 1985).
Seit den 1990er Jahren wird Zeugenschaft in der Forschung als philosophische, moralische und erkenntnistheoretische Kategorie in den USA, aber auch in Deutschland viel diskutiert. Dabei wurde die bild- und medienwissenschaftliche Perspektive im Zusammenhang mit Zeugenschaft kaum beleuchtet, darin liegt der Forschungsbeitrag der Arbeit. Insbesondere drei Gesichtspunkte von visueller Zeugenschaft werden herausgearbeitet: 1) die Sichtbarmachung der Überlebenden und der Orte des Geschehens im Jetzt, 2) die nichtsprachlichen Aspekte von Zeugenaussagen und 3) die Rolle des Zuschauers, der durch den Akt des Sehens in einem Imaginationsprozess eine Verknüpfung zwischen den Bildern aus der Jetztzeit und der nicht-sichtbaren Vergangenheit herstellt.
Polen nimmt eine besondere historische Rolle als Zentrum des europäischen Judentums bis zum Zweiten Weltkrieg und gleichzeitig als »Schauplatz des Holocaust« und Ort der Augenzeugenschaft ein. Maßgeblich hat Claude Lanzmanns Film SHOAH dazu beigetragen, die Konzentrations- und Vernichtungslager im Polen der Nachkriegszeit sichtbar zu machen, und damit nicht nur Generationen von polnischen Filmemachern und Künstlern nach ihm beeinflusst, sondern auch kontroverse Debatten in Polen ausgelöst. Anhand der ausgewählten Filme lässt sich in der polnischen Erinnerungskultur seit der Wende von 1989 eine Hinwendung zur polnisch-jüdischen Geschichte erkennen, die sich verstärkt mit den Fragen der polnischen Mittäterschaft und Schuld an der Shoah auseinandersetzt.
Der Untersuchungsgegenstand unterteilt sich in zwei Formate: Dokumentar- und Kunstfilm. Einerseits ist das auf ihre unterschiedlichen Produktions- und Rezeptionsbedingungen sowie die Länge der Arbeiten zurückzuführen. Andererseits bewegen sich die Kategorien auf verschiedenen Reflexionsebenen und zielen auf unterschiedliche Wirkungen beim Zuschauer ab. Während sich in den Dokumentarfilmen zum Teil explizite Bezüge (aber auch Abgrenzungen) zum Lanzmann’schen Projekt erkennen lassen, handelt es sich bei den Produktionen des zeitgenössischen Künstlers Artur Żmijewski um einen Meta-Diskurs, der auf radikale und provokative Art und Weise bestehende erinnerungskulturelle Praktiken ausstellt und kritisch hinterfragt.
Im ersten Teil der Arbeit wurden Strategien zur Analyse von Transkripten erarbeitet. Die ersten Versuche zielten darauf ab, in mit Glaskapillaren genommenen Einzelzellproben verschiedener Gewebeschichten RT-PCR durchzuführen, um spezifische Transkripte nachweisen zu können. Dies gelang für eine Reihe von Genen aus verschiedenen Pflanzenspezies. Dabei konnten sowohl Transkripte stark wie auch schwach exprimierter Gene nachgewiesen werden. Für die Erstellung von Gewebe-spezifischen Expressionsprofilen war es notwendig, die in vereinigten Zellproben enthaltene mRNA zunächst zu amplifizieren, um eine ausreichende Menge für Arrayhybridisierungen zu erhalten. Vor der Vermehrung wurde die mRNA revers transkribiert. Es wurden daran anschließend verschiedene Amplifikationsstrategien getestet: Die neben Tailing, Adapterligation und anderen PCR-basierenden Protokollen getestete Arbitrary-PCR hat sich in dieser Arbeit als einfache und einzige Methode herausgestellt, die mit so geringen cDNA-Mengen reproduzierbar arbeitet. Durch Gewebe-spezifische Array-hybridisierungen mit der so amplifizierten RNA konnten schon bekannte Expressionsmuster verschiedener Gene, vornehmlich solcher, die an der Photosynthese beteiligt sind, beobachtet werden. Es wurden aber auch eine ganze Reihe neuer offensichtlich Gewebe-spezifisch exprimierter Gene gefunden. Exemplarisch für die differentiell exprimierten Gene konnte das durch Arrayhybridisierungen gefundene Expressionsmuster der kleinen Untereinheit von Rubisco verifiziert werden. Hierzu wurden Methoden zum Gewebe-spezifischen Northernblot sowie semiquantitativer und Echtzeit-Einzelzell-RT-PCR entwickelt. Im zweiten Teil der Arbeit wurden Methoden zur Analyse von Metaboliten einschließlich anorganischer Ionen verwendet. Es stellte sich heraus, daß die multiparallele Methode der Gaschromatographie-Massenspektrometrie keine geeignete Methode für die Analyse selbst vieler vereinigter Zellinhalte ist. Daher wurde auf Kapillarelektrophorese zurückgegriffen. Eine Methode, die mit sehr kleinen Probenvolumina auskommt, eine hohe Trennung erzielt und zudem extrem geringe Detektionslimits besitzt. Die Analyse von Kohlenhydraten und Anionen erfordert eine weitere Optimierung. Über UV-Detektion konnte die K+-Konzentration in verschiedenen Geweben von A. thaliana bestimmt werden. Sie lag in Epidermis und Mesophyll mit ca. 25 mM unterhalb der für andere Pflanzenspezies (Solanum tuberosum und Hordeum vulgare) publizierten Konzentration. Weiter konnte gezeigt werden, daß zwölf freie Aminosäuren mittels einer auf Kapillarelektrophorese basierenden Methode in vereinigten Zellproben von Cucurbita maxima identifiziert werden konnten. Die Übertragung der Methode auf A. thaliana-Proben muß jedoch weiter optimiert werden, da die Sensitivität selbst bei Laser induzierter Fluoreszenz-Detektion nicht ausreichte. Im dritten und letzten Teil der Arbeit wurde eine Methode entwickelt, die die Analyse bekannter wie unbekannter Proteine in Gewebe-spezifischen Proben ermöglicht. Hierzu wurde zur Probennahme mittels mechanischer Mikrodissektion eine alternative Methode zur Laser Capture Microdissection verwendet, um aus eingebetteten Gewebeschnitten distinkte Bereiche herauszuschneiden und somit homogenes Gewebe anzureichern. Aus diesem konnten die Proteine extrahiert und über Polyacrylamidgelelektrophorese separariert werden. Banden konnten ausgeschnitten, tryptisch verdaut und massenspektrometrisch die Primärsequenz der Peptidfragmente bestimmt werden. So konnten als Hauptproteine im Mesophyll die große Untereinheit von Rubisco sowie ein Chlorophyll bindendes Protein gefunden werden. Die in dieser Arbeit entwickelten und auf die Modellpflanze Arabidopsis thaliana angewandten Einzelzellanalysetechniken erlauben es in Zukunft, physiologische Prozesse besser sowohl räumlich als auch zeitlich aufzulösen. Dies wird zu einem detaillierteren Verständnis mannigfaltiger Vorgänge wie Zell-Zell-Kommunikation, Signalweiterleitung oder Pflanzen-Pathogen-Interaktionen führen.
Im Rahmen dieser Arbeit wurden zwei humane Varianten des von Wang et al., 1999, erstmals beschriebenen muskelspezifischen Proteins Xin (Huhn und Maus) über Sequenzanalyse, Immunofluoreszenzmikroskopie, Transfektionsstudien und biochemischer Analyse näher charakterisiert. Die Proteine wurden mit human Xin related proteins 1 und 2 – hXirp1 und 2 –bezeichnet. Die Xin-Proteine enthielten bisher unbekannte, sowie spezifische, repetitive Motive, die aus jeweils mindestens 16 Aminosäuren bestanden. Ihre Aminosäuresequenz, mit einer Vielzahl weiterer putativer Motivsequenzen, verwies auf eine potentielle Funktion von hXirp als Adapterprotein in Muskelzellen. Das hier näher untersuchte hXirp1 lokalisierte an den Zell-Matrix-Verbindungen der Muskel-Sehnen-Übergangszone im Skelettmuskel, sowie an den Zell-Zell-Verbindungen der Glanzstreifen im Herzmuskel. Während der Muskelentwicklung zeigte hXirp1 eine sehr frühe Expression, zusammen mit einer prägnanten Lokalisation an den Prämyofibrillen und deren Verankerungsstrukturen, die auf eine Funktion des Proteins in der Myofibrillogenese deuten. Ektopische Expressionen von hXirp1 in einer Vielzahl von Nichtmuskel-Kulturzellen zeigten wiederum eine Lokalisation des Proteins an den Zell-Matrix-Kontakten dieser Zellen. Am Beispiel von hXirp1 und 2 wurde stellvertretend für die Familie der Xin-Proteine gezeigt, daß es sich bei den repetitiven Motiven um neuartige, F-Aktin bindende Sequenzmotive handelte. Die Xin-Proteine können somit als muskelspezifische, aktinbindende, potentielle Adapterproteine bezeichnet werden, denen eine strukturelle und funktionelle Beteiligung an der Verankerung der Myofibrillen im adulten Muskel, wie auch während der Myofibrillogenese zukommt.
Die Hochwasserereignisse der letzten Jahre haben Mängel bei der schnellen Verfügbarkeit des klassischen Darstellungs-, Entscheidungs- und Analyseinstruments Karte offenbart. Die Erfahrungen von 1997 und 2002 verdeutlichen, dass eine homogene digitale Datengrundlage, die neben rein topographischen zusätzlich auch fachspezifische Informationen des Hochwasserschutzes enthält, für eine effektive Bekämpfung solcher Ereignisse notwendig ist. Mit den Daten des ,Amtlichen Topographisch-Kartographischen Informationssystems’ (ATKIS) liegen topographische Basisdaten in graphikfreier Form als digitales Landschaftsmodell (DLM) flächendeckend für die Bundesrepublik vor. Anhand der exemplarischen Ableitung von nutzerorientierten Kartenmodellen aus diesen graphikfreien Daten wurde deren Eignung für den besonderen Verwendungszweck im Rahmen eines Hochwasserschutz-Informationssystems überprüft. Als Anwendungsbeispiel wurde das Gebiet der Ziltendorfer Niederung, die während des Oder-Hochwassers 1997 überflutet wurde, gewählt. In Expertengesprächen wurden zunächst Inhalte identifiziert, die für einen wirksamen Hochwasserschutz Relevanz besitzen; diese Inhalte wurden anschließend analog zum ATKIS-Systemdesign strukturiert und als Objekte eines separaten Objektbereichs im digitalen Fachmodell (DFM) erfasst. Bei der Ableitung von (Bildschirm-) Karten aus den graphikfreien Daten wurden jeweils unterschiedliche Kriterien für die Basiskarte und die Fachinhalte berücksichtigt. Dabei wurden verschiedene kartographische Regeln und Gesetze mit dem Ziel der prägnanten Visualisierung und damit der eindeutigen Lesbarkeit der Karten angewendet. Beispielhaft sei hier die Schaffung einer visuellen Hierarchie zwischen Basiskarte und Fachinhalten genannt. Die besonderen Nutzungsbedingungen von Karten im Einsatzfall erfordern u.a., dass die Karten auch von Personen, die nur über geringe oder keine Erfahrung im Umgang mit Karten verfügen, schnell und einfach zu lesen sind, um so eine sichere Informationsvermittlung zu gewährleisten. Voraussetzung dafür ist einerseits die Beschränkung auf die Darstellung der wesentlichen Inhalte, andererseits die Verwendung leicht lesbarer Kartenzeichen. Aus diesem Grund wurden einheitliche Kartenzeichen zur Darstellung der Fachinhalte entwickelt, die entweder aus allgemein bekannten Symbolen, aus den im Katastrophenschutz üblicherweise verwendeten sog. taktischen Zeichen oder aus Fachzeichen des Hochwasserschutzes abgeleitet wurden. Die entwickelten Kartenmodelle wurden abschließend in qualitativen Experteninterviews in Bezug auf ihre Qualität und Verwendbarkeit im Hochwasserschutz geprüft. Die Auswertung der Interviews ergab eine insgesamt positive Beurteilung der Karten für den Einsatz in Hochwasserschutz-Informationssystemen. Damit leistet die vorliegende Arbeit einen Beitrag zur Entwicklung von (Bildschirm-) Karten zur Unterstützung bei der Entscheidungsfindung im Katastrophenmanagement.
Stellar magnetic fields, as a crucial component of star formation and evolution, evade direct observation at least with current and near future instruments. However investigating whether magnetic fields are generated by a dynamo process or represent relics from the formation process, or whether they show a behavior similar to the sun or something very different, it is essential to investigate their structure and temporal evolution. Fortunately nature provides us with the possibility to indirectly observe surface topologies on distant stars by means of Doppler shift and polarization of light, though not without its challenges. Based on the mentioned effects, the so called Zeeman-Doppler Imaging technique is a powerful method to retrieve magnetic fields from rapid rotating stars based on measurements of spectropolarimetric observations in terms of Stokes profiles. In recent years, a large number of stellar magnetic field distributions could be reconstructed by Zeeman-Doppler Imaging (ZDI). However, the implementation of this method often relies on many approximations because, as an inversion method, it entails enormous computational requirements. The aim of this thesis is to develop methods for a ZDI, designed to invert time-resolved spectropolarimetric data of active late type stars, and to account for the expected complex and small scale magnetic fields on these stars. In order to reliably reconstruct the detailed field orientation and strength, the inversion method is employed to be able to use of all four Stokes components. Furthermore it is based on fully polarized radiative transfer calculations to account for the intricate interplay between temperature and magnetic field. Finally, the application of a newly developed ZDI code to Stokes I and V observations of II Pegasi (short: II Peg) was supposed to deliver the first magnetic surface maps for this highly active star. To accomplish the high computational burden of a radiative transfer based ZDI, we developed a novel approximation method to speed up the inversion process. It is based on Principal Component Analysis and Artificial Neural Networks. The latter approximate the functional mapping between atmospheric parameters and the corresponding local Stokes profiles. Inverse problems, as we are dealing with, are potentially ill-posed and require a regularization method. We propose a new regularization scheme, which implements a local entropy function that accounts for the peculiarities of the reconstruction of localized magnetic fields. To deal with the relatively large noise that is always present in polarimetric data, we developed a multi-line denoising technique based on Principal Component Analysis. In contrast to other multi-line techniques that extract from a large number of spectral lines a sort of mean profile, this method allows to extract individual spectral lines and thus allows for an inversion on the basis of specific lines. All these methods are incorporated in our newly developed ZDI code iMap, which is based on a conjugated gradient method. An in depth validation of our new synthesis method demonstrates the reliability and accuracy of this approach as well as a gain in computation time by almost three orders of magnitude relative to the conventional radiative transfer calculations. We investigated the influence of the different Stokes components (IV / IVQU) on the ability to reconstruct a known synthetic field configuration. In doing so we validate the capability of our inversion code, and we also assess limitations of magnetic field inversions in general. In a first application to II Peg, a K2 IV subgiant, we derived temperature and magnetic field surface distributions from spectropolarimetric data obtained in 2004 and 2007. It gives for the first time simultaneously the temporal evolution of the surface temperature and magnetic field distribution on II Peg.
The exponential expanding of the numbers of web sites and Internet users makes WWW the most important global information resource. From information publishing and electronic commerce to entertainment and social networking, the Web allows an inexpensive and efficient access to the services provided by individuals and institutions. The basic units for distributing these services are the web sites scattered throughout the world. However, the extreme fragility of web services and content, the high competence between similar services supplied by different sites, and the wide geographic distributions of the web users drive the urgent requirement from the web managers to track and understand the usage interest of their web customers. This thesis, "X-tracking the Usage Interest on Web Sites", aims to fulfill this requirement. "X" stands two meanings: one is that the usage interest differs from various web sites, and the other is that usage interest is depicted from multi aspects: internal and external, structural and conceptual, objective and subjective. "Tracking" shows that our concentration is on locating and measuring the differences and changes among usage patterns. This thesis presents the methodologies on discovering usage interest on three kinds of web sites: the public information portal site, e-learning site that provides kinds of streaming lectures and social site that supplies the public discussions on IT issues. On different sites, we concentrate on different issues related with mining usage interest. The educational information portal sites were the first implementation scenarios on discovering usage patterns and optimizing the organization of web services. In such cases, the usage patterns are modeled as frequent page sets, navigation paths, navigation structures or graphs. However, a necessary requirement is to rebuild the individual behaviors from usage history. We give a systematic study on how to rebuild individual behaviors. Besides, this thesis shows a new strategy on building content clusters based on pair browsing retrieved from usage logs. The difference between such clusters and the original web structure displays the distance between the destinations from usage side and the expectations from design side. Moreover, we study the problem on tracking the changes of usage patterns in their life cycles. The changes are described from internal side integrating conceptual and structure features, and from external side for the physical features; and described from local side measuring the difference between two time spans, and global side showing the change tendency along the life cycle. A platform, Web-Cares, is developed to discover the usage interest, to measure the difference between usage interest and site expectation and to track the changes of usage patterns. E-learning site provides the teaching materials such as slides, recorded lecture videos and exercise sheets. We focus on discovering the learning interest on streaming lectures, such as real medias, mp4 and flash clips. Compared to the information portal site, the usage on streaming lectures encapsulates the variables such as viewing time and actions during learning processes. The learning interest is discovered in the form of answering 6 questions, which covers finding the relations between pieces of lectures and the preference among different forms of lectures. We prefer on detecting the changes of learning interest on the same course from different semesters. The differences on the content and structure between two courses leverage the changes on the learning interest. We give an algorithm on measuring the difference on learning interest integrated with similarity comparison between courses. A search engine, TASK-Moniminer, is created to help the teacher query the learning interest on their streaming lectures on tele-TASK site. Social site acts as an online community attracting web users to discuss the common topics and share their interesting information. Compared to the public information portal site and e-learning web site, the rich interactions among users and web content bring the wider range of content quality, on the other hand, provide more possibilities to express and model usage interest. We propose a framework on finding and recommending high reputation articles in a social site. We observed that the reputation is classified into global and local categories; the quality of the articles having high reputation is related with the content features. Based on these observations, our framework is implemented firstly by finding the articles having global or local reputation, and secondly clustering articles based on their content relations, and then the articles are selected and recommended from each cluster based on their reputation ranks.
X-rays are integral to furthering our knowledge of exoplanetary systems. In this work we discuss the use of X-ray observations to understand star-planet interac- tions, mass-loss rates of an exoplanet’s atmosphere and the study of an exoplanet’s atmospheric components using future X-ray spectroscopy.
The low-mass star GJ 1151 was reported to display variable low-frequency radio emission, which is an indication of coronal star-planet interactions with an unseen exoplanet. In chapter 5 we report the first X-ray detection of GJ 1151’s corona based on XMM-Newton data. Averaged over the observation, we detect the star with a low coronal temperature of 1.6 MK and an X-ray luminosity of LX = 5.5 × 1026 erg/s. This is compatible with the coronal assumptions for a sub-Alfvénic star- planet interaction origin of the observed radio signals from this star.
In chapter 6, we aim to characterise the high-energy environment of known ex- oplanets and estimate their mass-loss rates. This work is based on the soft X-ray instrument on board the Spectrum Roentgen Gamma (SRG) mission, eROSITA, along with archival data from ROSAT, XMM-Newton, and Chandra. We use these four X-ray source catalogues to derive X-ray luminosities of exoplanet host stars in the 0.2-2 keV energy band. A catalogue of the mass-loss rates of 287 exoplan- ets is presented, with 96 of these planets characterised for the first time using new eROSITA detections. Of these first time detections, 14 are of transiting exoplanets that undergo irradiation from their host stars that is of a level known to cause ob- servable evaporation signals in other systems, making them suitable for follow-up observations.
In the next generation of space observatories, X-ray transmission spectroscopy of an exoplanet’s atmosphere will be possible, allowing for a detailed look into the atmospheric composition of these planets. In chapter 7, we model sample spectra using a toy model of an exoplanetary atmosphere to predict what exoplanet transit observations with future X-ray missions such as Athena will look like. We then estimate the observable X-ray transmission spectrum for a typical Hot Jupiter-type exoplanet, giving us insights into the advances in X-ray observations of exoplanets in the decades to come.
Giacconi et al. (1962) discovered a diffuse cosmic X-ray background with rocket experiments when they searched for lunar X-ray emission. Later satellite missions found a spectral peak in the cosmic X-ray background at ~30 keV. Imaging X-ray satellites such as ROSAT (1990-1999) were able to resolve up to 80% of the background below 2 keV into single point sources, mainly active galaxies. The cosmic X-ray background is the integration of all accreting super-massive (several million solar masses) black holes in the centre of active galaxies over cosmic time. Synthesis models need further populations of X-ray absorbed active galaxy nuclei (AGN) in order to explain the cosmic X-ray background peak at ~30 keV. Current X-ray missions such as XMM-Newton and Chandra offer the possibility of studying these additional populations. This Ph.D. thesis studies the populations that dominate the X-ray sky. For this purpose the 120 ksec XMM-Newton Marano field survey, named for an earlier optical quasar survey in the southern hemisphere, is analysed. Based on the optical follow-up observations the X-ray sources are spectroscopically classified. Optical and X-ray properties of the different X-ray source populations are studied and differences are derived. The amount of absorption in the X-ray spectra of type II AGN, which are considered as a main contributor to the X-ray background at ~30 keV, is determined. In order to extend the sample size of the rare type II AGN, this study also includes objects from another survey, the XMM-Newton Serendipitous Medium Sample. In addition, the dependence of the absorption in type II AGN with redshift and X-ray luminosity is analysed. We detected 328 X-ray sources in the Marano field. 140 sources were spectroscopically classified. We found 89 type I AGN, 36 type II AGN, 6 galaxies, and 9 stars. AGN, galaxies, and stars are clearly distinguishable by their optical and X-ray properties. Type I and II AGN do not separate clearly. They have a significant overlap in all studied properties. In a few cases the X-ray properties are in contradiction to the observed optical properties for type I and type II AGN. For example we find type II AGN that show evidence for optical absorption but are not absorbed in X-rays. Based on the additional use of near infra-red imaging (K-band), we were able to identify several of the rare type II AGN. The X-ray spectra of type II AGN from the XMM-Newton Marano field survey and the XMM-Newton Serendipitous Medium Sample were analysed. Since most of the sources have only ~40 X-ray counts in the XMM-Newton PN-detector, I carefully studied the fit results of simulated X-ray spectra as a function of fit statistic and binning method. The objects revealed only moderate absorption. In particular, I do not find any Compton-thick sources (absorbed by column densities of NH > 1.5 x 10^24 cm^−2). This gives evidence that type II AGN are not the main contributor of the X-ray background around 30 keV. Although bias effects may occur, type II AGN show no noticeable trend of the amount of absorption with redshift or X-ray luminosity.
Writing travel, writing life
(2022)
The book compares the texts of three Swiss authors: Ella Maillart, Annemarie Schwarzenbach and Nicolas Bouvier. The focus is on their trip from Genève to Kabul that Ella Maillart and Annemarie Schwarzenbach made together in 1939/1940 and Nicolas Bouvier 1953/1954 with the artist Thierry Vernet. The comparison shows the strong connection between the journey and life and between ars vivendi and travel literature.
This book also gives an overview of and organises the numerous terms, genres, and categories that already exist to describe various travel texts and proposes the new term travelling narration. The travelling narration looks at the text from a narratological perspective that distinguishes the author, narrator, and protagonist within the narration.
In the examination, ten motifs could be found to characterise the travelling narration: Culture, Crossing Borders, Freedom, Time and Space, the Aesthetics of Landscapes, Writing and Reading, the Self and/as the Other, Home, Religion and Spirituality as well as the Journey. The importance of each individual motif does not only apply in the 1930s or 1950s but also transmits important findings for living together today and in the future.
In den letzten 20 Jahren sind Evaluationen Schritt für Schritt zu einem festen und gleichzeitig kontrovers diskutierten Bestandteil politischer Förderung geworden. Auf der Basis langjähriger Beobachtungen der Evaluationspraxis des Förderprogramms „Soziale Stadt“ zeigt dieses Buch zunächst, dass Evaluationstätigkeiten in Ministerien, Kommunalverwaltungen und Planungsbüros mit ganz unterschiedlichen Erwartungen, Herausforderungen, Widersprüchen und Irritationen verknüpft werden. Evaluationen werden dabei sowohl als Hoffnungsträger, als auch als Schreckgespenst gesehen. Der Autor nimmt diese Beobachtungen zum Anlass, den Umgang mit Evaluationen in politischen Organisationen kritisch zu hinterfragen und systematisch zu erklären. Reduziert auf die Frage „Wozu Evaluation?“ wird auf der Basis eines systemtheoretischen Zugangs erklärt, welche unterschiedlichen Funktionen Evaluationen in Organisationen erfüllen können. Vertiefend wird dabei auf organisationales Lernen, auf politische Steuerungslogik und auf die Notwendigkeit von Symbolisierungen eingegangen.
World market governance
(2014)
Democratic capitalism or liberal democracy, as the successful marriage of convenience between market liberalism and democracy sometimes is called, is in trouble. The market economy system has become global and there is a growing mismatch with the territoriality of the nation-states. The functional global networks and inter-governmental order can no longer keep pace with the rapid development of the global market economy and regulatory capture is all too common. Concepts like de-globalization, self-regulation, and global government are floated in the debate. The alternatives are analysed and found to be improper, inadequate or plainly impossible. The proposed route is instead to accept that the global market economy has developed into an independent fundamental societal system that needs its own governance. The suggestion is World Market Governance based on the Rule of Law in order to shape the fitness environment for the global market economy and strengthen the nation-states so that they can regain the sovereignty to decide upon the social and cultural conditions in each country. Elements in the proposed Rule of Law are international legislation decided by an Assembly supported by a Council, and an independent Judiciary. Existing international organisations would function as executors. The need for broad sustained demand for regulations in the common interest is identified.
Workplace-related anxieties and workplace phobia : a concept of domain-specific mental disorders
(2008)
Background: Anxiety in the workplace is a special problem as workplaces are especially prone to provoke anxiety: There are social hierarchies, rivalries between colleagues, sanctioning through superiors, danger of accidents, failure, and worries of job security. Workplace phobia is a phobic anxiety reaction with symptoms of panic occurring when thinking of or approaching the workplace, and with clear tendency of avoidance. Objectives: What characterizes workplace-related anxieties and workplace phobia as domain-specific mental disorders in contrast to conventional anxiety disorders? Method: 230 patients from an inpatient psychosomatic rehabilitation center were interviewed with the (semi-)structured Mini-Work-Anxiety-Interview and the Mini International Neuropsychiatric Interview, concerning workplace-related anxieties and conventional mental disorders. Additionally, the patients filled in the self-rating questionnaires Job-Anxiety-Scale (JAS) and the Symptom Checklist (SCL-90-R)measuring job-related and general psychosomatic symptom load. Results: Workplace-related anxieties occurred together with conventional anxiety disorders in 35% of the patients, but also alone in others (23%). Workplace phobia could be found in 17% of the interviewed, any diagnosis of workplace-related anxiety was stated in 58%. Workplace phobic patients had significantly higher scores in job-anxiety than patients without workplace phobia. Patients with workplace phobia were significantly longer on sick leave in the past 12 months (23,5 weeks) than patients without workplace phobia (13,4 weeks). Different qualities of workplace-related anxieties lead with different frequencies to work participation disorders. Conclusion: Workplace phobia cannot be described by only assessing the general level of psychosomatic symptom load and conventional mental disorders. Workplace-related anxieties and workplace phobia have an own clinical value which is mainly defined by specific workplace-related symptom load and work-participation disorders. They require special therapeutic attention and treatment instead of a “sick leave” certification by the general health physician. Workplace phobia should be named with a proper diagnosis according to ICD-10 chapter V, F 40.8: “workplace phobia”.
This dissertation investigates the working memory mechanism subserving human sentence processing and its relative contribution to processing difficulty as compared to syntactic prediction. Within the last decades, evidence for a content-addressable memory system underlying human cognition in general has accumulated (e.g., Anderson et al., 2004). In sentence processing research, it has been proposed that this general content-addressable architecture is also used for language processing (e.g., McElree, 2000).
Although there is a growing body of evidence from various kinds of linguistic dependencies that is consistent with a general content-addressable memory subserving sentence processing (e.g., McElree et al., 2003; VanDyke2006), the case of reflexive-antecedent dependencies has challenged this view. It has been proposed that in the processing of reflexive-antecedent dependencies, a syntactic-structure based memory access is used rather than cue-based retrieval within a content-addressable framework (e.g., Sturt, 2003).
Two eye-tracking experiments on Chinese reflexives were designed to tease apart accounts assuming a syntactic-structure based memory access mechanism from cue-based retrieval (implemented in ACT-R as proposed by Lewis and Vasishth (2005).
In both experiments, interference effects were observed from noun phrases which syntactically do not qualify as the reflexive's antecedent but match the animacy requirement the reflexive imposes on its antecedent. These results are interpreted as evidence against a purely syntactic-structure based memory access. However, the exact pattern of effects observed in the data is only partially compatible with the Lewis and Vasishth cue-based parsing model.
Therefore, an extension of the Lewis and Vasishth model is proposed. Two principles are added to the original model, namely 'cue confusion' and 'distractor prominence'.
Although interference effects are generally interpreted in favor of a content-addressable memory architecture, an alternative explanation for interference effects in reflexive processing has been proposed which, crucially, might reconcile interference effects with a structure-based account.
It has been argued that interference effects do not necessarily reflect cue-based retrieval interference in a content-addressable memory but might equally well be accounted for by interference effects which have already occurred at the moment of encoding the antecedent in memory (Dillon, 2011).
Three experiments (eye-tracking and self-paced reading) on German reflexives and Swedish possessives were designed to tease apart cue-based retrieval interference from encoding interference. The results of all three experiments suggest that there is no evidence that encoding interference affects the retrieval of a reflexive's antecedent.
Taken together, these findings suggest that the processing of reflexives can be explained with the same cue-based retrieval mechanism that has been invoked to explain syntactic dependency resolution in a range of other structures. This supports the view that the language processing system is located within a general cognitive architecture, with a general-purpose content-addressable working memory system operating on linguistic expressions.
Finally, two experiments (self-paced reading and eye-tracking) using Chinese relative clauses were conducted to determine the relative contribution to sentence processing difficulty of working-memory processes as compared to syntactic prediction during incremental parsing.
Chinese has the cross-linguistically rare property of being a language with subject-verb-object word order and pre-nominal relative clauses. This property leads to opposing predictions of expectation-based
accounts and memory-based accounts with respect to the relative processing difficulty of subject vs. object relatives.
Previous studies showed contradictory results, which has been attributed to different kinds local ambiguities confounding the materials (Lin and Bever, 2011). The two experiments presented are the first to compare Chinese relatives clauses in syntactically unambiguous contexts.
The results of both experiments were consistent with the predictions of the expectation-based account of sentence processing but not with the memory-based account. From these findings, I conclude that any theory of human sentence processing needs to take into account the power of predictive processes unfolding in the human mind.
There is evidence that infants start extracting words from fluent speech around 7.5 months of age (e.g., Jusczyk & Aslin, 1995) and that they use at least two mechanisms to segment words forms from fluent speech: prosodic information (e.g., Jusczyk, Cutler & Redanz, 1993) and statistical information (e.g., Saffran, Aslin & Newport, 1996). However, how these two mechanisms interact and whether they change during development is still not fully understood.
The main aim of the present work is to understand in what way different cues to word segmentation are exploited by infants when learning the language in their environment, as well as to explore whether this ability is related to later language skills. In Chapter 3 we pursued to determine the reliability of the method used in most of the experiments in the present thesis (the Headturn Preference Procedure), as well as to examine correlations and individual differences between infants’ performance and later language outcomes. In Chapter 4 we investigated how German-speaking adults weigh statistical and prosodic information for word segmentation. We familiarized adults with an auditory string in which statistical and prosodic information indicated different word boundaries and obtained both behavioral and pupillometry responses. Then, we conducted further experiments to understand in what way different cues to word segmentation are exploited by 9-month-old German-learning infants (Chapter 5) and by 6-month-old German-learning infants (Chapter 6). In addition, we conducted follow-up questionnaires with the infants and obtained language outcomes at later stages of development.
Our findings from this thesis revealed that (1) German-speaking adults show a strong weight of prosodic cues, at least for the materials used in this study and that (2) German-learning infants weight these two kind of cues differently depending on age and/or language experience. We observed that, unlike English-learning infants, 6-month-old infants relied more strongly on prosodic cues. Nine-month-olds do not show any preference for either of the cues in the word segmentation task. From the present results it remains unclear whether the ability to use prosodic cues to word segmentation relates to later language vocabulary. We speculate that prosody provides infants with their first window into the specific acoustic regularities in the signal, which enables them to master the specific stress pattern of German rapidly. Our findings are a step forwards in the understanding of an early impact of the native prosody compared to statistical learning in early word segmentation.
This thesis explores word order variability in verb-final languages. Verb-final languages have a reputation for a high amount of word order variability. However, that reputation amounts to an urban myth due to a lack of systematic investigation. This thesis provides such a systematic investigation by presenting original data from several verb-final languages with a focus on four Uralic ones: Estonian, Udmurt, Meadow Mari, and South Sámi. As with every urban myth, there is a kernel of truth in that many unrelated verb-final languages share a particular kind of word order variability, A-scrambling, in which the fronted elements do not receive a special information-structural role, such as topic or contrastive focus. That word order variability goes hand in hand with placing focussed phrases further to the right in the position directly in front of the verb. Variations on this pattern are exemplified by Uyghur, Standard Dargwa, Eastern Armenian, and three of the Uralic languages, Estonian, Udmurt, and Meadow Mari. So far for the kernel of truth, but the fourth Uralic language, South Sámi, is comparably rigid and does not feature this particular kind of word order variability. Further such comparably rigid, non-scrambling verb-final languages are Dutch, Afrikaans, Amharic, and Korean. In contrast to scrambling languages, non-scrambling languages feature obligatory subject movement, causing word order rigidity next to other typical EPP effects.
The EPP is a defining feature of South Sámi clause structure in general. South Sámi exhibits a one-of-a-kind alternation between SOV and SAuxOV order that is captured by the assumption of the EPP and obligatory movement of auxiliaries but not lexical verbs. Other languages that allow for SAuxOV order either lack an alternation because the auxiliary is obligatorily present (Macro-Sudan SAuxOVX languages), or feature an alternation between SVO and SAuxOV (Kru languages; V2 with underlying OV as a fringe case). In the SVO–SAuxOV languages, both auxiliaries and lexical verbs move. Hence, South Sámi shows that the textbook difference between the VO languages English and French, whether verb movement is restricted to auxiliaries, also extends to OV languages. SAuxOV languages are an outlier among OV languages in general but are united by the presence of the EPP.
Word order variability is not restricted to the preverbal field in verb-final languages, as most of them feature postverbal elements (PVE). PVE challenge the notion of verb-finality in a language. Strictly verb-final languages without any clause-internal PVE are rare. This thesis charts the first structural and descriptive typology of PVE. Verb-final languages vary in the categories they allow as PVE. Allowing for non-oblique PVE is a pivotal threshold: when non-oblique PVE are allowed, PVE can be used for information-structural effects. Many areally and genetically unrelated languages only allow for given PVE but differ in whether the PVE are contrastive. In those languages, verb-finality is not at stake since verb-medial orders are marked. In contrast, the Uralic languages Estonian and Udmurt allow for any PVE, including information focus. Verb-medial orders can be used in the same contexts as verb-final orders without semantic and pragmatic differences. As such, verb placement is subject to actual free variation. The underlying verb-finality of Estonian and Udmurt can only be inferred from a range of diagnostics indicating optional verb movement in both languages. In general, it is not possible to account for PVE with a uniform analysis: rightwards merge, leftward verb movement, and rightwards phrasal movement are required to capture the cross- and intralinguistic variation.
Knowing that a language is verb-final does not allow one to draw conclusions about word order variability in that language. There are patterns of homogeneity, such as the word order variability driven by directly preverbal focus and the givenness of postverbal elements, but those are not brought about by verb-finality alone. Preverbal word order variability is restricted by the more abstract property of obligatory subject movement, whereas the determinant of postverbal word order variability has to be determined in the future.
The present work deals with the variation in the linearisation of German infinitival complements from a diachronic perspective. Based on the observation that in present-day German the position of infinitival complements is restricted by properties of the matrix verb (Haider, 2010, Wurmbrand, 2001), whereas this appears much more liberal in older stages of German (Demske, 2008, Maché and Abraham, 2011, Demske, 2015), this dissertation investigates the emergence of those restrictions and the factors that have led to a reduced, yet still existing variability. The study contrasts infinitival complements of two types of matrix verbs, namely raising and control verbs. In present-day German, these show different syntactic behaviour and opposite preferences as far as the position of the infinitive is concerned: while infinitival complements of raising verbs build a single clausal domain with the with the matrix verb and occur obligatorily intraposed, infinitive complements of control verbs can form clausal constituents and occur predominantly extraposed. This correlation is not attested in older stages of German, at least not until Early New High German.
Drawing on diachronic corpus data, the present work provides a description of the changes in the linearisation of infinitival complements from Early New High German to present-day German which aims at finding out when the correlation between infinitive type and word order emerged and further examines their possible causes. The study shows that word order change in German infinitival complements is not a case of syntactic change in the narrow sense, but that the diachronic variation results from the interaction of different language-internal and language-external factors and that it reflects, on the one hand, the influence of language modality on the emerging standard language and, on the other hand, a process of specialisation.
Entsprechend der Zielstellung wurden zunächst verschiedene Varianten der Kompostierung von Holzsubstanz getestet, um eine optimale Technologie, die auch für Entwicklungsländer realisierbar ist, herauszufinden. Hierzu sind in Pflanztöpfe Holzspäne (Woodchips) von zwei verschieden Holzarten (Laub- und Nadelholz) gefüllt und mit verschiedenen natürlichen Stickstoffquellen gemischt worden. Diese Ansätze wurden regelmäßig mit Kompostwasser appliziert. Nach vier Wochen sind zwei verschiedene Wurmarten (Dendrobaena veneta und Eisenia fetida) hinzugegeben worden. Die Feuchthaltung erfolgte ab diesem Zeitpunkt durch Frischwasser. Die qualitativ beste Versuchsvariante ist im nächsten Schritt mit weiteren natürlichen Stickstoffquellen, die in Entwicklungsländern zur Verfügung gestellt werden könnten, getestet worden. Von allen Kompostvarianten sind im Labor eine Vielzahl von bodenphysikalischen (z.B. Dichte, Wasserhaltekapazität) und bodenchemischen Zustandsgrößen (z.B. Elektrische Leitfähigkeit, Totalgehalte biophiler Elemente, Bodenreaktion, organische Substanzgehalte, Kationenaustauschkapazität) bestimmt worden. Die Wiederum qualitativ beste Mischung ist in einer weiteren Versuchsreihe in verschiedenen Mengenverhältnissen mit tertiärerem Abraumsand des Braunkohlebergbaus gemischt worden. In diese Versuchsmischungen wurde die Grasmischung RSM 7.2.1 eingesät und regelmäßig bewässert sowie die Wuchshöhe gemessen. Nach 42 Tagen wurden das Gras geerntet und die biometrischen Parameter, die Nährstoffgehalte (pflanzenverfügbare Fraktionen), die Bodenreaktion, die effektive bzw. potentielle Kationenaustauschkapazität sowie die Pufferkapazitäten der Mischsubstrate bestimmt. Die nächsten Versuchsvarianten sind als Feldversuche in der Niederlausitz durchgeführt worden. Für ihre Realisierung wurde als weiterer Zuschlagsstoff Arkadolith® zugemischt. Die Plotflächen sind sowohl auf Abraumsanden des Tertiärs als auch Quartärs angelegt worden. In jeweils eine Subvariante ist RSM 7.2.1, in die andere eine autochthone Grasmischung eingesät worden. Diese Experimente wurden nach 6 Monaten beendet, die Bestimmung aller Parameter erfolgte in gleicher Weise wie bei den Gewächshausversuchen. Auf Basis aller Versuchsreihen konnten die besten Kompostqualitäten und ihre optimalen Herstellungsvarianten ermittelt werden. Eine weitere Aufgabe war es zu untersuchen, wie im Vergleich zur Verbrennung von Holzmasse die CO2-Emission in die Atmosphäre durch Holzkompostierung verringert werden kann. Hierzu wurde während der verschiedenen Kompostierungsvarianten die CO2-Freisetzung gemessen. Im Vergleich dazu ist jeweils die gleiche Masse an Holzsubstanz verbrannt worden. Die Ergebnisse zeigten, dass im Vergleich zu der thermischen Verwertung von Holsubstanz die CO2-Emission bis zu 50 % verringert werden kann. Dem Boden kann darüber hinaus energiereiche organische Substanz zugeführt werden, die eine Entwicklung der Bodenorganismen ermöglicht. Ein weiteres Experiment zielte darauf ab, die Stabilität der Holzkomposte zu bestimmen. Darüber hinaus sollte untersucht werden, ob durch die Zufuhr von pyrogenem Kohlenstoff eine Vergrößerung der Stabilität zu erreichen ist. Diese Untersuchungen wurden mit Hilfe der Thermogravimetrie vorgenommen. Alle wichtigen Kompostierungsvarianten sind sowohl mit verschiedenen Zusatzmengen als auch ohne Zusatz von pyrogenem Kohlenstoff vermessen worden. Als Vergleichssubstanz diente der Oberboden eines Niedermoorgleys, der naturgemäß einen relativ hohen Anteil an organischer Substanz aufweist. Die Ergebnisse zeigten, dass im Bereich niedriger Temperaturen die Wasserbindung im Naturboden fester ist. In der Fraktion der oxidierbaren organischen Substanz, im mittleren Temperaturbereich gemessen, ist die natürliche Bodensubstanz ebenfalls stabiler, was auf eine intensivere Bindung zwischen den organischen und anorganischen Bestandteilen, also auf stabilere organisch-mineralische Komplexe, schlussfolgern lässt. Im Bereich höherer Temperaturen (T> 550° C) waren im Naturboden keine nennenswerten organischen Bestandteile mehr nachweisbar. Hingegen wiesen die Kompostvarianten einen hohen Anteil stabiler Fraktionen, vor allem aromatische Verbindungen, auf. Diese Aussagen erscheinen vor allem für die praktische Anwendung der Holzkomposte in Hinblick auf ihre Langzeitwirkung bedeutsam. Der Zusatz von pyrogenem Kohlenstoff zeigte keine zusätzliche Stabilisierungswirkung.
Wood is used for many applications because of its excellent mechanical properties, relative abundance and as it is a renewable resource. However, its wider utilization as an engineering material is limited because it swells and shrinks upon moisture changes and is susceptible to degradation by microorganisms and/or insects. Chemical modifications of wood have been shown to improve dimensional stability, water repellence and/or durability, thus increasing potential service-life of wood materials. However current treatments are limited because it is difficult to introduce and fix such modifications deep inside the tissue and cell wall. Within the scope of this thesis, novel chemical modification methods of wood cell walls were developed to improve both dimensional stability and water repellence of wood material. These methods were partly inspired by the heartwood formation in living trees, a process, that for some species results in an insertion of hydrophobic chemical substances into the cell walls of already dead wood cells, In the first part of this thesis a chemistry to modify wood cell walls was used, which was inspired by the natural process of heartwood formation. Commercially available hydrophobic flavonoid molecules were effectively inserted in the cell walls of spruce, a softwood species with low natural durability, after a tosylation treatment to obtain “artificial heartwood”. Flavonoid inserted cell walls show a reduced moisture absorption, resulting in better dimensional stability, water repellency and increased hardness. This approach was quite different compared to established modifications which mainly address hydroxyl groups of cell wall polymers with hydrophilic substances. In the second part of the work in-situ styrene polymerization inside the tosylated cell walls was studied. It is known that there is a weak adhesion between hydrophobic polymers and hydrophilic cell wall components. The hydrophobic styrene monomers were inserted into the tosylated wood cell walls for further polymerization to form polystyrene in the cell walls, which increased the dimensional stability of the bulk wood material and reduced water uptake of the cell walls considerably when compared to controls. In the third part of the work, grafting of another hydrophobic and also biodegradable polymer, poly(ɛ-caprolactone) in the wood cell walls by ring opening polymerization of ɛ-caprolactone was studied at mild temperatures. Results indicated that polycaprolactone attached into the cell walls, caused permanent swelling of the cell walls up to 5%. Dimensional stability of the bulk wood material increased 40% and water absorption reduced more than 35%. A fully biodegradable and hydrophobized wood material was obtained with this method which reduces disposal problem of the modified wood materials and has improved properties to extend the material’s service-life. Starting from a bio-inspired approach which showed great promise as an alternative to standard cell wall modifications we showed the possibility of inserting hydrophobic molecules in the cell walls and supported this fact with in-situ styrene and ɛ-caprolactone polymerization into the cell walls. It was shown in this thesis that despite the extensive knowledge and long history of using wood as a material there is still room for novel chemical modifications which could have a high impact on improving wood properties.
Since 1980 Iraq passed through various wars and conflicts including Iraq-Iran war, Saddam Hussein’s the Anfals and Halabja campaigns against the Kurds and the killing campaigns against Shiite in 1986, Saddam Hussein’s invasion of Kuwait in August 1990, the Gulf war in 1990, Iraq war in 2003 and the fall of Saddam, the conflicts and chaos in the transmission of power after the death of Saddam, and the war against ISIS . All these wars left severe impacts in most households in Iraq; on women and children in particular.
The consequences of such long wars could be observed in all sectors including economic, social, cultural and religious sectors. The social structure, norms and attitudes are intensely affected. Many women specifically divorced women found them-selves in challenging different difficulties such as social as well as economic situations. Thus the divorced women in Iraqi Kurdistan are the focus of this research.
Considering the fact that there is very few empirical researches on this topic, a constructivist grounded theory methodology (CGT) is viewed as reliable in order to come up with a comprehensive picture about the everyday life of divorced women in Iraqi Kurdistan. Data collected in Sulaimani city in Iraqi Kurdistan. The work of Kathy Charmaz was chosen to be the main methodological context of the research and the main data collection method was individual intensive narrative interviews with divorced women.
Women generally and divorced women specifically in Iraqi Kurdistan are living in a patriarchal society that passing through many changes due to the above mentioned wars among many other factors. This research is trying to study the everyday life of divorced women in such situations and the forms of social insecurity they are experiencing. The social institutions starting from the family as a very significant institution for women to the governmental and non-governmental institutions that are working to support women, and the copying strategies, are in focus in this research. The main research argument is that the family is playing ambivalent roles in divorced women’s life. For instance, on one side families are revealed to be an essential source of security to most respondents, on the other side families posed also many threats and restrictions on those women. This argument supported by what called by Suad joseph "the paradox of support and suppression" . Another important finding is that the stat institution(laws , constitutions ,Offices of combating violence against woman and family) are supporting women somehow and offering them protection from the insecurities but it is clear that the existence of the laws does not stop the violence against women in Iraqi Kurdistan, As explained by Pateman because the laws /the contract is a sexual-social contract that upholds the sex rights of males and grants them more privileges than females. The political instability, Tribal social norms also play a major role in influencing the rule of law.
It is noteworthy to refer that analyzing the interviews in this research showed that in spite that divorced women living in insecurities and facing difficulties but most of the respondents try to find a coping strategies to tackle difficult situations and to deal with the violence they face; these strategies are bargaining, sometimes compromising or resisting …etc. Different theories used to explain these coping strategies such as bargaining with patriarchy. Kandiyoti who stated that women living under certain restraints struggle to find way and strategies to enhance their situations. The research finding also revealed that the western liberal feminist view of agency is limited this is agree with Saba Mahmood and what she explained about Muslim women agency. For my respondents, who are divorced women, their agency reveals itself in different ways, in resisting or compromising with or even obeying the power of male relatives, and the normative system in the society. Agency is also explained the behavior of women contacting formal state institutions in cases of violence like the police or Offices of combating violence against woman and family.
Das Schulfach Geographie war in der DDR eines der Fächer, das sehr stark mit politischen Themen im Sinne des Marxismus-Leninismus bestückt war. Ein anderer Aspekt sind die sozialistischen Erziehungsziele, die in der Schulbildung der DDR hoch im Kurs standen. Im Fokus stand diesbezüglich die Erziehung der Kinder zu sozialistischen Persönlichkeiten. Die Arbeit versucht einen klaren Blick auf diesen Umstand zu werfen, um zu erfahren, was da von den Lehrkräften gefordert wurde und wie es in der Schule umzusetzen war.
Durch den Fall der Mauer war natürlich auch eine Umstrukturierung des Bildungssystems im Osten unausweichlich. Hier will die Arbeit Einblicke geben, wie die Geographielehrkräfte diese Transformation mitgetragen und umgesetzt haben. Welche Wesenszüge aus der Sozialisierung in der DDR haben sich bei der Gestaltung des Unterrichtes und dessen Ausrichtung auf die neuen Erziehungsziele erhalten?
Hierzu wurden Geographielehrkräfte befragt, die sowohl in der DDR als auch im geeinten Deutschland unterrichtet haben. Die Fragen bezogen sich in erster Linie auf die Art und Weise des Unterrichtens vor, während und nach der Wende und der daraus entstandenen Systemtransformation.
Die Befragungen kommen zu dem Ergebnis, dass sich der Geographieunterricht in der DDR thematisch von dem in der BRD nicht sonderlich unterschied. Von daher bedurfte es keiner umfangreichen inhaltlichen Veränderung des Geographieunterrichts. Schon zu DDR-Zeiten wurden durch die Lehrkräfte offenbar eigenmächtig ideologiefreie physisch-geographische Themen oft ausgedehnt, um die Ideologie des Faches zu reduzieren. So fiel den meisten eine Anpassung ihres Unterrichts an das westdeutsche System relativ leicht. Die humanistisch geprägte Werteerziehung des DDR-Bildungssystems wurde unter Ausklammerung des sozialistischen Aspektes ebenso fortgeführt, da es auch hier viele Parallelen zum westdeutschen System gegeben hat. Deutlich wird eine Charakterisierung des Faches als Naturwissenschaft von Seiten der ostdeutschen Lehrkräfte, obwohl das Fach an den Schulen den Gesellschaftswissenschaften zugeordnet wird und auch in der DDR eine starke wirtschaftsgeographische Ausrichtung hatte.
Von der Verantwortung sozialistische Persönlichkeiten zu erziehen, wurden die Lehrkräfte mit dem Ende der DDR entbunden und die in dieser Arbeit aufgeführten Interviewauszüge lassen keinen Zweifel daran, dass es dem Großteil der Befragten darum nicht leidtat, sie sich aber bis heute an der Werteorientierung aus DDR-Zeiten orientieren.
This dissertation uses a common grammatical phenomenon, light verb constructions (LVCs) in English and German, to investigate how syntax-semantics mapping defaults influence the relationships between language processing, representation and conceptualization. LVCs are analyzed as a phenomenon of mismatch in the argument structure. The processing implication of this mismatch are experimentally investigated, using ERPs and a dual task. Data from these experiments point to an increase in working memory. Representational questions are investigated using structural priming. Data from this study suggest that while the syntax of LVCs is not different from other structures’, the semantics and mapping are represented differently. This hypothesis is tested with a new categorization paradigm, which reveals that the conceptual structure that LVC evoke differ in interesting, and predictable, ways from non-mismatching structures’.
Wissenschaft, Technik und Medien im Werk Alfred Döblins im Kontext der europäischen Avantgarde
(2015)
Ziel dieser Studie ist es die bislang nur sporadisch untersuchten Wechselverhältnisse zwischen den Kulturbereichen Wissenschaft/Technik und Literatur am herausragenden Beispiel des Oeuvres des Schriftstellers und Arztes Alfred Döblin aufzuspüren. Hierbei scheint seine ärztlich-psychiatrische Laufbahn, die eine breite Grundlage wissenschaftlicher Diskurse anbietet, wie auch seine avantgardistische Literaturpraxis diese gegenseitige Befruchtung gefördert zu haben.
Im Hinblick auf den Forschungsgegenstand und -zweck ist ein kulturwissenschaftlicher Ansatz versucht worden. Dieser vielperspektivische Ansatz, der von der Prämisse eines Wechselspiels aller Kulturbereiche untereinander ausgeht, gestattet eine dem Gegenstand angepasste Verknüpfung von verschiedenen Arbeitsmethoden wie der philologisch-literarhistorischen mit der konstruktivistischen und der komparatistischen. Hierbei ist eine Einbeziehung wissenschafts- und technikphilosophischer Reflexion wie auch eine dementsprechend erweiterte kulturhistorische Kontextualisierung vorgenommen worden.
Die hier vorgelegte Analyse fokussiert auf wissenschaftlich-technische Bezüge sowohl in thematischer Hinsicht als auch in der Textgestaltung der schriftstellerischen Werke Döblins bis 1924. Gleichzeitig wird die diskursgeprägte, sprachliche und literarische Dimension seiner wissenschaftlichen Studien und technischer Texte - wie Krankenakte - hervorgehoben. Dieses erweiterte ‚Oeuvre‘-Konzept gestattet die Analyse der psychiatrischen, klinisch-ärztlichen und biochemischen Schriften Döblins sowie seiner Erzählwerke, seiner vielgestaltigen Publizistik und seiner intermedialen Anregungen aus den neuen audiovisuellen Medien. Dadurch wird eine diskurskritische kulturübergreifende Interdiskursivität wie auch eine ‚Hybridität‘ aller Texte aufgezeigt, die die Grundunterschiede zwischen Textsorten und Gattungsgrenzen relativiert.
Die vorliegende Arbeit befasst sich mit der wissensbasierten Modellierung von Audio-Signal-Klassifikatoren (ASK) für die Bioakustik. Sie behandelt ein interdisziplinäres Problem, das viele Facetten umfasst. Zu diesen gehören artspezifische bioakustische Fragen, mathematisch-algorithmische Details und Probleme der Repräsentation von Expertenwissen. Es wird eine universelle praktisch anwendbare Methode zur wissensbasierten Modellierung bioakustischer ASK dargestellt und evaluiert. Das Problem der Modellierung von ASK wird dabei durchgängig aus KDD-Perspektive (Knowledge Discovery in Databases) betrachtet. Der grundlegende Ansatz besteht darin, mit Hilfe von modifizierten KDD-Methoden und Data-Mining-Verfahren die Modellierung von ASK wesentlich zu erleichtern. Das etablierte KDD-Paradigma wird mit Hilfe eines detaillierten formalen Modells auf den Bereich der Modellierung von ASK übertragen. Neunzehn elementare KDD-Verfahren bilden die Grundlage eines umfassenden Systems zur wissensbasierten Modellierung von ASK. Methode und Algorithmen werden evaluiert, indem eine sehr umfangreiche Sammlung akustischer Signale des Großen Tümmlers mit ihrer Hilfe untersucht wird. Die Sammlung wurde speziell für diese Arbeit in Eilat (Israel) angefertigt. Insgesamt werden auf Grundlage dieses Audiomaterials vier empirische Einzelstudien durchgeführt: - Auf der Basis von oszillographischen und spektrographischen Darstellungen wird ein phänomenologisches Klassifikationssystem für die vielfältigen Laute des Großen Tümmlers dargestellt. - Mit Hilfe eines Korpus halbsynthetischer Audiodaten werden verschiedene grundlegende Verfahren zur Modellierung und Anwendung von ASK in Hinblick auf ihre Genauigkeit und Robustheit untersucht. - Mit einem speziell entwickelten Clustering-Verfahren werden mehrere Tausend natürliche Pfifflaute des Großen Tümmlers untersucht. Die Ergebnisse werden visualisiert und diskutiert. - Durch maschinelles mustererkennungsbasiertes akustisches Monitoring wird die Emissionsdynamik verschiedener Lauttypen im Verlaufe von vier Wochen untersucht. Etwa 2.5 Millionen Klicklaute werden im Anschluss auf ihre spektralen Charakteristika hin untersucht. Die beschriebene Methode und die dargestellten Algorithmen sind in vielfältiger Hinsicht erweiterbar, ohne dass an ihrer grundlegenden Architektur etwas geändert werden muss. Sie lassen sich leicht in dem gesamten Gebiet der Bioakustik einsetzen. Hiermit besitzen sie auch für angrenzende Disziplinen ein hohes Potential, denn exaktes Wissen über die akustischen Kommunikations- und Sonarsysteme der Tiere wird in der theoretischen Biologie, in den Kognitionswissenschaften, aber auch im praktischen Naturschutz, in Zukunft eine wichtige Rolle spielen.
Die Beschäftigung mit dem Thema Change Management erfordert die Auseinandersetzung mit einem heterogenen Feld von Ansätzen und fachlichen Perspektiven. Es besteht ein Mangel an systematischen empirischen Untersuchungen zu diesem Thema. Insbesondere fehlen Arbeiten, die mehr als eine "Schule" des Change Managements berücksichtigen. Unterschiede in den situativen Anforderungen werden zudem theoretisch und empirisch oft unzureichend berücksichtigt. Die Vermutung liegt nahe, dass das Scheitern von Veränderungsprozessen häufig durch die stereotype Anwendung generalisierender Empfehlungen gängiger Ansätze verursacht wird. Um diesen Defiziten zu begegnen, sollten in dieser Arbeit Kontingenzen von situativen Anforderungen und Change Management empirisch überprüft werden. Der Untersuchung liegt eine Konzeption zugrunde, die hinsichtlich des Projekterfolgs von der idealen Passung (Kontingenz) zwischen situativer Anforderung und Change Management ausgeht und damit einhergehende prozessbezogene Einflussfaktoren berücksichtigt. Erfolg wird im Sinne der Nachhaltigkeit als Wirkungen wirtschaftlicher, organisationsbezogener und qualifikatorischer Art definiert. In drei Teilstudien wurden Beratende und betriebliche Beteiligte jeweils projektbezogen schriftlich und mündlich zu betrieblicher Ausgangslage, Veränderungsprinzipien, Wirkungen und prozessbezogenen Einflussfaktoren befragt. Die erste Teilstudie umfasst vier Fallstudien. Hier wurden insgesamt 18 Projektbeteiligte, jeweils Beratende, betriebliche Projektleitende und –mitarbeitende, befragt. Die zweite Teilstudie umfasst die schriftliche und mündliche Befragung von 31 Beratenden verschiedener Schulen des Change Managements. In der dritten Teilstudie wurden 47 betriebliche Veränderungsverantwortliche schriftlich befragt. Die Projekte der zweiten und dritten Teilstudie liessen sich in jeweils zwei statistisch abgesicherte Erfolgsgruppen einteilen, wobei sich die Erfolgsgruppen nicht systematisch auf Merkmalen der betrieblichen Ausgangslage unterscheiden. Folgendes sind die wichtigsten Ergebnisse: Bei traditionell-bürokratischen Organisationsstrukturen geht ein langfristig-kontinuierliches, graduell-anpassendes, pragmatisch-lösungsorientiertes Vorgehen, in flexiblen Strukturen dagegen ein kurzfristiges, tiefgreifendes und integrativ-konzeptuelles Vorgehen mit Projekterfolg einher.In traditionell-hierarchischen Führungsstrukturen erweist sich ein wenig humanzentriertes und wenig selbstbeurteilendes Vorgehen mit standardisierter Vorgehensmethode, in flexiblen Führungsstrukturen ein stark humanzentriertes und ausgeprägt selbstbeurteilendes Vorgehen mit angepasster Vorgehensmethode als erfolgsversprechend.Bei grossem betrieblichem Veränderungswissen erweist sich ein selbstbeurteilendes Vorgehen, bei geringem Veränderungswissen ein wenig selbstbeurteilendes Vorgehen als erfolgsversprechend.Angesichts ökonomischer Anforderungen geht ein langfristig-kontinuierliches, schnelles und rollend geplantes Vorgehen mit einem tiefgreifenden und integrativ-konzeptuellen Ansatz, unter wenig Einbezug von Fremdbeurteilungen mit positiven Wirkungen einher.Bei technologischen Anforderungen ist ein langfristig-kontinuierliches, langsames und tiefgreifendes Vorgehen mit wenig Fremdbeurteilung erfolgsversprechend.Für soziokulturelle Anforderungen erweist sich ein langsames, selbstbeurteilendes, graduell anpassendes und pragmatisch-fokussiertes Vorgehen als erfolgreich. Angesichts politisch-rechtlicher Anforderungen geht ein linear geplantes, zielfokussiertes, fachberaterisches und wenig prozessorientiertes Vorgehen mit Erfolg einher.Bei Gesamtreorganisationen als innerorganisationale Anforderungen erweist sich ein linear geplantes, fach- und prozessberaterisches sowie tiefgreifendes Vorgehen als erfolgsversprechend.Bei innerorganisationalen Anforderungen durch Führungswechsel geht ein kurzfristig-temporäres, integrativ-konzeptuelles Vorgehen mit angepasster Vorgehensmethode mit Erfolg einher. Hinsichtlich prozessbezogener Einflussfaktoren erweisen sich situationsspezifisches Beratendenhandeln, unterstützendes Führungsverhalten, grosse Akzeptanz der/des Beratenden, umfassender Einbezug der Mitarbeitenden, aktive Beteiligung und Engagement der Mitarbeitenden, Verankerung des Projekts in der Organisation und hoher wahrgenommener Nutzen der Veränderung als wichtigste unterstützende Faktoren. Widerstände aus der Belegschaft, problematisches Führungsverhalten im Veränderungsprozess, fehlende/mangelhafte neben Tagesgeschäft bereitgestellte Ressourcen, behindernde organisationale (nicht projektbezogene) Entwicklungen, Angst/Verunsicherung der Belegschaft sind die wichtigsten hemmenden Faktoren.
In der vorliegenden Arbeit habe ich wichtige Teilmechanismen der Erregungs-Sekretionskopplung in der Speicheldrüse der Schabe Periplaneta americana (L.) untersucht. Die Speicheldrüse ist von dopaminergen und serotonergen Fasern innerviert (Baumann et al., 2002). Beide Transmitter stimulieren eine unterschiedliche Reaktion der Drüse: Dopamin (DA) stimuliert die P-Zellen der Acini und die Ausführgangzellen, während Serotonin (5-HT) die P- und C-Zellen der Acini stimuliert, nicht jedoch die Ausführgangzellen. Der Endspeichel ist nach einer DA-Stimulierung proteinfrei. Dagegen enthält er nach einer 5-HT-Stimulierung Proteine, die von den C-Zellen sezerniert werden (Just & Walz, 1996). Im ersten Teil meiner Arbeit habe ich mittels Kapillarelektrophoretischer Analyse (CE-Analyse) die Elektrolytkonzentrationen im Endspeichel untersucht sowie die Raten der Flüssigkeitssekretion gemessen. Damit wollte ich klären, welche Transporter an der Sekretion des Primärspeichels und an dessen Modifikation beteiligt sind. Ausserdem wollte ich die Rolle der transportaktiven Epithelzellen der Ausführgänge für die Modifikation des Primärspeichels untersuchen. Dafür habe ich einen Vergleich der Elektrolytkonzentrationen im DA- und 5-HT-stimulierten Endspeichel durchgeführt. Der Elektrolytgehalt des DA- und 5-HT-stimulierten Endspeichels unterscheidet sich nicht signifikant voneinander. Er ist nach beiden Stimulierungen hypoosmotisch zum verwendeten Ringer. Die Ausführgangzellen werden durch DA stimuliert und modifizieren den Primärspeichel durch eine netto-Ionenreabsorption. Meine Versuche zeigen jedoch, dass auch die während einer 5-HT-Stimulierung der Drüse unstimulierten Ausführgangzellen den Primärspeichel modifizieren. In einer nachfolgenden Versuchsreihe habe ich den Einfluss von Ouabain, einem Hemmstoff der Na+-K+-ATPase, und Bumetanid, einem Hemmstoff des NKCC, auf die Raten der Flüssigkeitssekretion sowie den Elektrolytgehalt des Endspeichels untersucht. Ich habe gefunden, dass die Aktivität der Na+-K+-ATPase wichtig für die Modifikation des DA-stimulierten Primärspeichels ist. Im Gegensatz dazu ist sie für die Modifikation des 5-HT-stimulierten Primärspeichels nicht von Bedeutung. Bezüglich der Flüssigkeitssekretion habe ich keinen Einfluss der Na+-K+-ATPase-Aktivität auf die DA-stimulierten Sekretionsraten gefunden, dagegen ist die 5-HT-stimulierte Sekretionsrate in Anwesenheit von Ouabain gesteigert. Die Aktivität des NKCC ist für beide sekretorische Prozesse, die Ionen- und die Flüssigkeitssekretion, wichtig. Eine Hemmung des NKCC bewirkt eine signifikante Verringerung der Raten der Flüssigkeitssekretion nach DA- und 5-HT-Stimulierung sowie in beiden Fällen einen signifikanten Abfall der Ionenkonzentrationen im Endspeichel. Im zweiten Teil meiner Arbeit habe ich versucht, Änderungen der intrazellulären Ionenkonzentrationen in den Acinuszellen während einer DA- oder 5-HT-Stimulierung zu messen. Diese Experimente sollten mit der Methode des "ratiometric imaging" durchgeführt werden. Messungen mit dem Ca2+-sensitiven Fluoreszenzfarbstoff Fura-2 zeigten keinen globalen Anstieg in der intrazellulären Ca2+-Konzentration der P-Zellen. Aufgrund von Problemen mit einer schlechten Beladung der Zellen, einer starken und sich während der Stimulierung ändernden Autofluoreszenz der Zellen sowie Änderungen im Zellvolumen wurden keine Messungen mit Na+- und K+-sensitiven Fluoreszenzfarbstoffen durchgeführt. Im dritten Teil dieser Arbeit habe ich die intrazellulären Signalwege untersucht, die zwischen einer 5-HT-Stimulierung der Drüse und der Proteinsekretion vermitteln. Dazu wurde der Proteingehalt im Endspeichel biochemisch mittels eines modifizierten Bradford Assay gemessen. Eine erstellte Dosis-Wirkungskurve zeigt, dass die Rate der Proteinsekretion von der zur Stimulierung verwendeten 5-HT-Konzentration abhängt. In einer Serie von Experimenten habe ich die intrazellulären Konzentrationen von Ca2+, cAMP und / oder cGMP erhöht und anschließend den Proteingehalt im Endspeichel gemessen. Ein Anstieg der intrazellulären Ca2+-Konzentration aktiviert nur eine geringe Rate der Proteinsekretion. Dagegen kann die Steigerung der intrazellulären cAMP-Konzentration eine stärkere Proteinsekretion aktivieren, die sich nicht signifikant von der nach 5-HT-Stimulierung unterscheidet. Die cAMP-stimulierte Proteinsekretion kann durch gleichzeitige Erhöhung der intrazellulären Ca2+-Konzentration weiter gesteigert werden. Dagegen aktivierte eine Erhöhung der intrazellulären cGMP-Konzentration die Proteinsekretion nicht. Aufgrund dieser Ergebnisse postuliere ich die Existenz eines die Adenylatcyclase aktivierenden 5-HT-Rezeptors in der Basolateralmembran der C-Zellen.
Die gesundheitsfördernden Eigenschaften von grünem Tee sind weitgehend akzeptiert. Den Teecatechinen, insbesondere dem Epigallocatechin-3-gallat (EGCG), werden zahlreiche positive Effekte zugesprochen (z. B. antioxidativ, antikanzerogen, antiinflammatorisch, Blutdruck und Cholesterinspiegel senkend). Die Mechanismen, die zu einer Reduktion der in Tierversuchen beschriebenen Körper- und Fettmasse führen, sind nicht ausreichend geklärt. Ziel dieser Arbeit bestand darin, die kurz- und mittelfristigen Wirkungen einer TEAVIGO®-Applikation (mind. 94 % EGCG) am Mausmodell im Hinblick auf den Energie- und Fettstoffwechsel sowie die Expression daran beteiligter Gene in wichtigen Organen und Geweben zu untersuchen. In verschiedenen Tierversuchen wurde männlichen C57BL/6-Mäusen eine Hochfettdiät (HFD) mit und ohne Supplementation (oral, diätetisch) des entkoffeinierten Grüntee-Extraktes TEAVIGO® in unterschiedlichen Dosierungen gefüttert. Es wurden sowohl kurz- als auch mittelfristige Wirkungen des EGCG auf die Energiebilanz (u. a. indirekte Tierkalorimetrie) und Körperzusammensetzung (NMR) sowie die exogene Substratoxidation (Stabilisotopentechnik: Atemtests, Inkorporation natürlicher 13C-angereicherter Triglyceride aus Maiskeimöl in diverse Organe/Gewebe) und Gen-expression (quantitative real-time PCR) untersucht. Die Applikationsform und ihre Dauer riefen unterschiedliche Wirkungen hervor. Mäuse mit diätetischer Supplementation zeigten bereits nach kurzer Zeit eine verminderte Körperfettmasse, die bei weiterer Verabreichung auch zu einer Reduktion der Körpermasse führte. Beide Applikationsformen resultieren, unabhängig von der Dauer der Intervention, in einer erhöhten Energieausscheidung, während die Futter- und Energieaufnahme durch EGCG nicht beeinflusst wurden. Der Energieverlust war von einer erhöhten Fett- und Stickstoffausscheidung begleitet, deren Ursache die in der Literatur beschriebene Interaktion und Hemmung digestiver Enzyme sein könnte. Besonders unter postprandialen Bedingungen wiesen EGCG-Mäuse erniedrigte Triglycerid- und Glycogengehalte in der Leber auf, was auf eine eingeschränkte intestinale Absorption der Nährstoffe hindeutet. Transkriptanalysen ergaben im Darm eine verminderte Expression von Fettsäuretransportern, während die Expression von Glucosetransportern durch EGCG erhöht wurde. Weiterhin reduzierte EGCG, nach Umstellung von Standard- auf eine maiskeimölhaltige Hochfettdiät, die Inkorporation natürlicher 13C-angereicherter Triglyceride in diverse Organe und Gewebe – insbesondere Leber, viszerales und braunes Fettgewebe sowie Skelettmuskel. Die Analyse der 13C-Anreicherung im Atem der Mäuse und die Energieumsatzmessungen ergaben nach kurzer Applikation eine erhöhte Fettoxidation, die im weiteren Verlauf der Intervention auf eine erhöhte Kohlenhydratoxidation umgeschaltet wurde. Weiterhin war die orale Applikation von EGCG bei gleichzeitiger Fütterung einer Hochfettdiät von makroskopischen und mikroskopischen degenerativen Veränderungen der Leber begleitet. Diese Effekte wurden nach diätetischer Supplementation der Hochfettdiät mit EGCG nicht beobachtet. Zusammenfassend zeigen die Ergebnisse, dass die Körpergewichts- und Fettgewebs-abnahme durch diätetisches EGCG sich durch eine herabgesetzte Verdaulichkeit der Nahrung erklären lässt. Dies führte zu verschiedenen kurz- und mittelfristigen Veränderungen in der Fettverteilung und im Fettmetabolismus.
Einleitung
Die Implantation einer Knie- oder Hüft-Totalendoprothese (TEP) ist eine der häufigsten operativen Eingriffe. Im Anschluss an die Operation und die postoperative Rehabilitation stellt die Bewegungstherapie einen wesentlichen Bestandteil der Behandlung zur Verbesserung der Gelenkfunktion und der Lebensqualität dar. In strukturschwachen Gebieten werden entsprechende Angebote nur in unzureichender Dichte vorgehalten. Zudem zeichnet sich ein flächendeckender Fachkräftemangel im Bereich der Physiotherapie ab. Die Tele-Nachsorge bietet daher einen innovativen Ansatz für die postrehabilitative Versorgung der Patienten. Das Ziel der vorliegenden Untersuchung war die Überprüfung der Wirksamkeit einer interaktiven Tele-Nachsorgeintervention für Patienten mit Knie- oder Hüft-TEP im Vergleich zur herkömmlichen Versorgung (usual care). Dazu wurden die Funktionalität und die berufliche Wiedereingliederung untersucht.
Methode
Zwischen August 2016 und August 2017 wurden 111 Patienten (54,9 ± 6,8 Jahre, 54,3 % weiblich) zu Beginn ihrer stationären Anschlussheilbehandlung nach Implantation einer Knie- oder Hüft-TEP in diese randomisiert, kontrolliert, multizentrische Studie eingeschlossen. Nach Entlassung aus der orthopädischen Anschlussrehabilitation (Baseline) führte die Interventionsgruppe (IG) ein dreimonatiges interaktives Training über ein Telerehabilitationssystem durch. Hierfür erstellte ein betreuender Physiotherapeut einen individuellen Trainingsplan aus 38 Übungen zur Verbesserung der Kraft sowie der posturalen Kontrolle. Zur Anpassung des Trainingsplans übermittelte das System dem Physiotherapeuten Daten zur Quantität sowie zur Qualität des Trainings. Die Kontrollgruppe (KG) konnte die herkömmlichen Versorgungsangebote nutzen. Zur Beurteilung der Wirksamkeit der Intervention wurde die Differenz der Verbesserung im 6MWT zwischen der IG und der KG nach drei Monaten als primärer Endpunkt definiert. Als sekundäre Endpunkte wurden die Return-to-Work-Rate sowie die funktionelle Mobilität mittels des Stair Ascend Tests, des Five-Times-Sit-to-Stand Test und des Timed Up and Go Tests untersucht. Weiterhin wurden die gesundheitsbezogene Lebensqualität mit dem Short-Form 36 (SF-36) und die gelenkbezogenen Einschränkungen mit dem Western Ontario and McMaster Universities Osteoarthritis Index (WOMAC) evaluiert. Der primäre und die sekundären Endpunkte wurden anhand von baseline-adjustierten Kovarianzanalysen im intention-to-treat-Ansatz ausgewertet. Zusätzlich wurde die Teilnahme an Nachsorgeangeboten und die Adhärenz der Interventionsgruppe an der Tele-Nachsorge erfasst und evaluiert.
Ergebnisse
Zum Ende der Intervention wiesen beide Gruppen einen statistisch signifikanten Anstieg ihrer 6MWT Strecke auf (p < 0,001). Zu diesem Zeitpunkt legten die Teilnehmer der IG im Mittel 530,8 ± 79,7 m, die der KG 514,2 ± 71,2 m zurück. Dabei betrug die Differenz der Verbesserung der Gehstrecke in der IG 88,3 ± 57,7 m und in der KG 79,6 ± 48,7 m. Damit zeigt der primäre Endpunkt keine signifikanten Gruppenunterschiede (p = 0,951). Bezüglich der beruflichen Wiedereingliederung konnte jedoch eine signifikant höhere Rate in der IG (64,6 % versus 46,2 %; p = 0,014) festgestellt werden. Für die sekundären Endpunkte der funktionellen Mobilität, der Lebensqualität und der gelenkbezogenen Beschwerden belegen die Ergebnisse eine Gleichwertigkeit beider Gruppen zum Ende der Intervention.
Schlussfolgerung
Die telemedizinisch assistierte Bewegungstherapie für Knie- oder Hüft-TEP Patienten ist der herkömmlichen Versorgung zur Nachsorge hinsichtlich der erzielten Verbesserungen der funktionellen Mobilität, der gesundheitsbezogenen Lebensqualität und der gelenkbezogenen Beschwerden gleichwertig. In dieser Patientenpopulation ließen sich klinisch relevante Verbesserungen unabhängig von der Form der Bewegungstherapie erzielen. Im Hinblick auf die berufliche Wiedereingliederung zeigte sich eine signifikant höhere Rate in der Interventionsgruppe. Die telemedizinisch assistierte Bewegungstherapie scheint eine geeignete Versorgungsform der Nachsorge zu sein, die orts- und zeitunabhängig durchgeführt werden kann und somit den Bedürfnissen berufstätiger Patienten entgegenkommt und in den Alltag der Patienten integriert werden kann. Die Tele-Nachsorge sollte daher als optionale und komplementäre Form der postrehabilitativen Nachsorge angeboten werden. Auch im Hinblick auf den zunehmenden Fachkräftemangel im Bereich der Physiotherapie und bestehende Versorgungslücken in strukturschwachen Gebieten kann der Einsatz der Tele-Nachsorge innovative und bedarfsgerechte Lösungsansätze bieten.
With the recent growth of sensors, cloud computing handles the data processing of many applications. Processing some of this data on the cloud raises, however, many concerns regarding, e.g., privacy, latency, or single points of failure. Alternatively, thanks to the development of embedded systems, smart wireless devices can share their computation capacity, creating a local wireless cloud for in-network processing. In this context, the processing of an application is divided into smaller jobs so that a device can run one or more jobs.
The contribution of this thesis to this scenario is divided into three parts. In part one, I focus on wireless aspects, such as power control and interference management, for deciding which jobs to run on which node and how to route data between nodes. Hence, I formulate optimization problems and develop heuristic and meta-heuristic algorithms to allocate wireless and computation resources. Additionally, to deal with multiple applications competing for these resources, I develop a reinforcement learning (RL) admission controller to decide which application should be admitted. Next, I look into acoustic applications to improve wireless throughput by using microphone clock synchronization to synchronize wireless transmissions.
In the second part, I jointly work with colleagues from the acoustic processing field to optimize both network and application (i.e., acoustic) qualities. My contribution focuses on the network part, where I study the relation between acoustic and network qualities when selecting a subset of microphones for collecting audio data or selecting a subset of optional jobs for processing these data; too many microphones or too many jobs can lessen quality by unnecessary delays. Hence, I develop RL solutions to select the subset of microphones under network constraints when the speaker is moving while still providing good acoustic quality. Furthermore, I show that autonomous vehicles carrying microphones improve the acoustic qualities of different applications. Accordingly, I develop RL solutions (single and multi-agent ones) for controlling these vehicles.
In the third part, I close the gap between theory and practice. I describe the features of my open-source framework used as a proof of concept for wireless in-network processing. Next, I demonstrate how to run some algorithms developed by colleagues from acoustic processing using my framework. I also use the framework for studying in-network delays (wireless and processing) using different distributions of jobs and network topologies.
Among the multitude of geomorphological processes, aeolian shaping processes are of special character, Pedogenic dust is one of the most important sources of atmospheric aerosols and therefore regarded as a key player for atmospheric processes. Soil dust emissions, being complex in composition and properties, influence atmospheric processes and air quality and has impacts on other ecosystems. In this because even though their immediate impact can be considered low (exceptions exist), their constant and large-scale force makes them a powerful player in the earth system. dissertation, we unravel a novel scientific understanding of this complex system based on a holistic dataset acquired during a series of field experiments on arable land in La Pampa, Argentina. The field experiments as well as the generated data provide information about topography, various soil parameters, the atmospheric dynamics in the very lower atmosphere (4m height) as well as measurements regarding aeolian particle movement across a wide range of particle size classes between 0.2μm up to the coarse sand.
The investigations focus on three topics: (a) the effects of low-scale landscape structures on aeolian transport processes of the coarse particle fraction, (b) the horizontal and vertical fluxes of the very fine particles and (c) the impact of wind gusts on particle emissions.
Among other considerations presented in this thesis, it could in particular be shown, that even though the small-scale topology does have a clear impact on erosion and deposition patterns, also physical soil parameters need to be taken into account for a robust statistical modelling of the latter. Furthermore, specifically the vertical fluxes of particulate matter have different characteristics for the particle size classes. Finally, a novel statistical measure was introduced to quantify the impact of wind gusts on the particle uptake and its application on the provided data set. The aforementioned measure shows significantly increased particle concentrations during points in time defined as gust event.
With its holistic approach, this thesis further contributes to the fundamental understanding of how atmosphere and pedosphere are intertwined and affect each other.
Die Mehrzahl der Schlaganfallpatienten leidet unter Störungen der Gehfähigkeit. Die Behandlung der Folgen des Schlaganfalls stellt eine der häufigsten Indikationen für die neurologische Rehabilitation dar. Dabei steht die Wiederherstellung von sensomotorischen Funktionen, insbesondere der Gehfähigkeit, und der gesellschaftlichen Teilhabe im Vordergrund.
In Deutschland wird in der Gangrehabilitation nach Schlaganfall oft das Neurophysiologische Gangtraining nach Bobath (NGB) angewandt, das jedoch in seiner Effektivität kritisch gesehen wird. In Behandlungsleitlinien wird zuerst das Laufbandtraining (LT) empfohlen. Für diese Therapie liegen Wirknachweise für Verbesserungen in Gehgeschwindigkeit und Gehausdauer vor. Auch für die Rhythmisch-auditive Stimulation (RAS), dem ebenerdigen Gangtraining mit akustischer Stimulation liegt vergleichbare Evidenz für Schlaganfallpatienten vor.
Ziel der durchgeführten Studie war es, zu klären ob der Einsatz von RAS die Effektivität von LT verbessert. Es wurden die Auswirkungen eines 4-wöchigen musikgestützten Laufbandtrainings auf die Gangrehabilitation von Schlaganfallpatienten untersucht.
Für die Kombinationstherapie RAS mit Laufbandtraining (RAS-LT) wurde spezielle Trainingsmusik entwickelt. Diese wurde an die individuelle Laufbandkadenz des Patienten angepasst und in Abstimmung mit der Bandgeschwindigkeit systematisch gesteigert. Untersucht wurde, ob RAS-LT zu stärkeren Verbesserungen der Gehfähigkeit bei Schlaganfallpatienten führt als die Standardtherapien NGB und LT. Dazu wurde eine klinische Evaluation im prospektiven randomisierten und kontrollierten Parallelgruppendesign mit 45 Patienten nach Schlaganfall durchgeführt. 45 Patienten mit Hemiparese der unteren Extremität oder unsicherem und asymmetrischem Gangbild wurden in der Akutphase nach Schlaganfall eingeschlossen. Bei 10 Patienten wurde die Studie während der Interventionsphase abgebrochen, davon 1 Patient mit unerwünschter Nebenwirkung in Folge des LT.
Die verwendete Testbatterie umfasste neben Verfahren zur Bestimmung der Gehfunktion wie Fast Gait Speed Test, 3-min-Walking-Time-Test und der apparativen Ganganalyse mit dem Lokometer nach Bessou eine statische Posturographie und eine kinematische 2D-Ganganalyse auf dem Laufband. Diese Methode wurde in Erweiterung der bisherigen Studienlage in dieser Form erstmals für diese Fragestellung und dieses Patientenkollektiv konzipiert und eingesetzt. Sie ermöglichte eine differenzierte und seitenbezogene Beurteilung der Bewegungsqualität.
Die primären Endpunkte der Studie waren die longitudinalen Gangparameter Kadenz, Gehgeschwindigkeit und Schrittlänge. Als sekundäre Endpunkte dienten die Schrittsymmetrie, die Gehausdauer, das statische Gleichgewicht und die Bewegungsqualität des Gehens.
Prä-Post-Effekte wurden für die gesamte Stichprobe und für jede Gruppe durch T-Tests und wenn Normalverteilung nicht gegeben war mit dem Wilcoxon-Vorzeichen-Rangtest errechnet. Für die Ermittlung der Wirkungsunterschiede der 3 Interventionen wurde eine Kovarianzanalyse mit zwei Kovariaten durchgeführt: (1) der jeweilige Prä-Interventionsparameter und (2) die Zeit zwischen Akutereignis und Studienbeginn. Für einzelne Messparameter waren die Vorbedingungen der Kovarianzanalyse nicht erfüllt, sodass stattdessen ein Kruskal-Wallis H Test durchgeführt wurde. Das Signifikanzniveau wurde auf p < 0,05 und für gruppenspezifische Prä-Post-Effekte auf p > 0,016 gesetzt. Effektstärken wurden mit Cohens d berechnet.
Es wurden die Datensätze von 35 Patienten (RAS-LT: N = 11, LT: N = 13, NGB: N = 11) mit einem Alter von 63.6 ±8.6 Jahren, und mit einer Zeit zwischen Akutereignis und Beginn der Studie von 42.1 ±23.7 Tagen ausgewertet. In der statistischen Auswertung zeigten sich in der Nachuntersuchung stärkere Verbesserungen durch RAS-LT in der Kadenz (F(2,34) = 7.656, p = 0.002; partielles η2 = 0.338), wobei auch die Gruppenkontraste signifikante Unterschiede zugunsten von RAS-LT aufwiesen und eine Tendenz zu stärkerer Verbesserung in der Gehgeschwindigkeit (F(2,34) = 3.864, p = 0.032; partielles η2 = 0.205). Auch die Ergebnisse zur Schrittsymmetrie und zur Bewegungsqualität deuteten auf eine Überlegenheit des neuen Therapieansatzes RAS-LT hin, obgleich dort keine statistischen Signifikanzen im Gruppenvergleich erreicht wurden. Die Parameter Schrittlänge, Gehausdauer und die Werte zum statischen Gleichgewicht zeigten keine spezifischen Effekte von RAS-LT.
Die Studie liefert erstmals Anhaltspunkte für eine klinische Überlegenheit von RAS-LT gegenüber den Standardtherapien. Die weitere Entwicklung und Beforschung dieses innovativen Therapieansatzes können in Zukunft zu einer verbesserten Gangrehabilitation von Patienten nach Schlaganfall beitragen.
Folgt tatsächlich aus einem liberalen Wertekanon eine generative Selbstbestimmung, eine weitgehende elterliche Handlungsfreiheit bei eugenischen Maßnahmen, wie es Vertreter einer „liberalen Eugenik“ versichern? Diese Arbeit diskutiert die Rolle Staates und die Handlungsspielräume der Eltern bei der genetischen Gestaltung von Nachkommen im Rahmen eines liberalen Wertverständnisses.
Den Schwerpunkt/Fokus der Betrachtungen liegt hier Maßnahmen des genetic enhancement.
Darüber hinaus wird auch das Verhältnis der „liberalen Eugenik“ zur „autoritären Eugenik“ neu beleuchtet.
Die Untersuchung beginnt bei der Analyse zentraler liberaler Werte und Normen, wie Freiheit, Autonomie und Gerechtigkeit und deren Funktionen in der „liberalen Eugenik“. Wobei nur sehr eingeschränkt von der „liberalen Eugenik“ gesprochen werden kann, sondern viel mehr von Varianten einer „liberalen Eugenik“.
Darüber hinaus wird in dieser Arbeit die historische Entwicklung der „liberalen“ und der „autoritären Eugenik“, speziell des Sozialdarwinismus, untersucht und verglichen, insbesondere im Hinblick auf liberale Werte und Normen und der generativen Selbstbestimmung.
Den Kern der Arbeit bildet der Vergleich der „liberalen Eugenik“ mit der „liberalen Erziehung“. Da hier die grundlegenden Aufgaben der Eltern, aber auch des Staates, analysiert und deren Verhältnis diskutiert wird.
Es zeigt sich, dass sich aus einem liberalen Wertverständnisses heraus keine umfangreiche generative Selbstbestimmung ableiten lässt, sondern sich viel mehr staatlich kontrollierte enge Grenzen bei eugenischen Maßnahmen zum Wohle der zukünftigen Person, begründen.
Zudem wurde der Weg zur autoritären Eugenik nicht durch die Abkehr von der generativen Selbstbestimmung geebnet, sondern viel mehr durch die Übertragung des Fortschrittsgedankens auf den Menschen selbst. Damit verliert die generative Selbstbestimmung auch ihre Funktion als Brandmauer gegen eine autoritäre Eugenik. Nicht der Verlust der generativen Selbstbestimmung, sondern viel mehr die Idee der Perfektionierung des Menschen muss kritisch betrachtet und letztlich abgelehnt werden.
Ohne generative Selbstbestimmung und einer Perfektionierung des Menschen, bleibt nur eine Basis-Eugenik, bei der die Entwicklungsfähigkeit des Menschen sichergestellt wird, nicht jedoch seine Verbesserung.
Darüber hinaus muss auch über eine Entwicklungsmöglichkeit des zukünftigen Menschen gesprochen werden, d. h. ein minimales Potential zu gesellschaftlicher Integration muss gegeben sein. Nur wenn tatsächlich keine Möglichkeiten seitens der Gesellschaft bestehen eine Person zu integrieren und dieser eine Entwicklungsmöglichkeit zu bieten, wären eugenische Maßnahmen als letztes Mittel akzeptabel.
Wie interpretieren Kinder nur? : Experimentelle Untersuchungen zum Erwerb von Informationsstruktur
(2010)
Im Zentrum der Arbeit steht die Frage, wie sechsjährige monolingual deutsche Kinder Sätze mit der Fokuspartikel nur interpretieren. In 5 Experimenten wurde untersucht, welchen Einfluss die Oberflächenposition der Fokuspartikel auf das Satzverständnis hat und ob die kontextuelle Einbettung der nur-Sätze zu einer zielsprachlichen Interpretation führt. Im Gegensatz zu den Ergebnissen bisheriger Studien (u.a. Crain, et al. 1994; Paterson et al. 2003) zeigen die Daten der Arbeit, dass die getesteten Kinder die präsentierten nur-Sätze zielsprachlich interpretierten, wenn diese in einen adäquaten Kontext eingebettet waren. Es zeigte sich weiterhin, dass die Kinder mehr Fehler bei der Interpretation von Sätzen mit nur vor dem Subjekt (Nur die Maus hat einen Ball.) als mit nur vor dem Objekt (Die Maus hat nur einen Ball.) machten. Entgegen dem syntaktisch basierten Ansatz von Crain et al. (1994) und dem semantisch-pragmatisch basierten Ansatz von Paterson et al. (2003) werden in der Arbeit informationsstrukturelle Eigenschaften bzw. Unterschiede der nur-Sätze für die beobachteten Leistungen verantwortlich gemacht. Der in der Arbeit postulierte Topik-Default Ansatz nimmt an, dass die Kinder das Subjekt eines Satzes immer als Topik analysieren. Dies führt im Fall der Sätze mit nur vor dem Subjekt zu einer falschen informationsstrukturellen Repräsentation des Satzes. Basierend auf den Ergebnissen der Arbeit und dem postulierten Topik-Default Ansatz wird in der Arbeit abschließend ein Erwerbsmodell für das Verstehen von Sätzen mit der Fokuspartikel nur entworfen und diskutiert.
Im kognitiven Vulnerabilitäts-Stress-Modell der Depression von A.T. Beck (1967, 1976) spielen dysfunktionale Einstellungen bei der Entstehung von Depression in Folge von erlebtem Stress eine zentrale Rolle. Diese Theorie prägt seit Jahrzehnten die ätiologische Erforschung der Depression, jedoch ist die Bedeutung dysfunktionaler Einstellungen im Prozess der Entstehung einer Depression insbesondere im Kindes- und Jugendalter nach wie vor unklar. Die vorliegende Arbeit widmet sich einigen in der bisherigen Forschung wenig behandelten Fragen. Diese betreffen u. a. die Möglichkeit nichtlinearer Effekte dysfunktionaler Einstellungen, Auswirkungen einer Stichprobenselektion, Entwicklungseffekte sowie die Spezifität etwaiger Zusammenhänge für eine depressive Symptomatik.
Zur Beantwortung dieser Fragen wurden Daten von zwei Messzeitpunkten der PIER-Studie, eines großangelegten Längsschnittprojekts über Entwicklungsrisiken im Kindes- und Jugendalter, genutzt. Kinder und Jugendliche im Alter von 9 bis 18 Jahren berichteten zweimal im Abstand von ca. 20 Monaten im Selbstberichtsverfahren über ihre dysfunktionalen Einstellungen, Symptome aus verschiedenen Störungsbereichen sowie über eingetretene Lebensereignisse.
Die Ergebnisse liefern Evidenz für ein Schwellenmodell, in dem dysfunktionale Einstellungen unabhängig von Alter und Geschlecht nur im höheren Ausprägungsbereich eine Wirkung als Vulnerabilitätsfaktor zeigen, während im niedrigen Ausprägungsbereich keine Zusammenhänge zur späteren Depressivität bestehen. Eine Wirkung als Vulnerabilitätsfaktor war zudem nur in der Subgruppe der anfänglich weitgehend symptomfreien Kinder und Jugendlichen zu beobachten. Das Schwellenmodell erwies sich als spezifisch für eine depressive Symptomatik, es zeigten sich jedoch auch (teilweise ebenfalls nichtlineare) Effekte dysfunktionaler Einstellungen auf die Entwicklung von Essstörungssymptomen und aggressivem Verhalten. Bei 9- bis 13-jährigen Jungen standen dysfunktionale Einstellungen zudem in Zusammenhang mit einer Tendenz, Stress in Leistungskontexten herbeizuführen.
Zusammen mit den von Sahyazici-Knaak (2015) berichteten Ergebnissen aus der PIER-Studie weisen die Befunde darauf hin, dass dysfunktionale Einstellungen im Kindes- und Jugendalter – je nach betrachteter Subgruppe – Ursache, Symptom und Konsequenz der Depression darstellen können. Die in der vorliegenden Arbeit gezeigten nichtlinearen Effekte dysfunktionaler Einstellungen und die Effekte der Stichprobenselektion bieten eine zumindest teilweise Erklärung für die Heterogenität früherer Forschungsergebnisse. Insgesamt lassen sie auf komplexe – und nicht ausschließlich negative – Auswirkungen dysfunktionaler Einstellungen schließen. Für eine adäquate Beurteilung der „Dysfunktionalität“ der von A.T. Beck so betitelten Einstellungen erscheint daher eine Berücksichtigung der betrachteten Personengruppe, der absoluten Ausprägungen und der fraglichen Symptomgruppen geboten.
Knowledge-intensive business processes are flexible and data-driven. Therefore, traditional process modeling languages do not meet their requirements: These languages focus on highly structured processes in which data plays a minor role. As a result, process-oriented information systems fail to assist knowledge workers on executing their processes. We propose a novel case management approach that combines flexible activity-centric processes with data models, and we provide a joint semantics using colored Petri nets. The approach is suited to model, verify, and enact knowledge-intensive processes and can aid the development of information systems that support knowledge work.
Knowledge-intensive processes are human-centered, multi-variant, and data-driven. Typical domains include healthcare, insurances, and law. The processes cannot be fully modeled, since the underlying knowledge is too vast and changes too quickly. Thus, models for knowledge-intensive processes are necessarily underspecified. In fact, a case emerges gradually as knowledge workers make informed decisions. Knowledge work imposes special requirements on modeling and managing respective processes. They include flexibility during design and execution, ad-hoc adaption to unforeseen situations, and the integration of behavior and data. However, the predominantly used process modeling languages (e.g., BPMN) are unsuited for this task.
Therefore, novel modeling languages have been proposed. Many of them focus on activities' data requirements and declarative constraints rather than imperative control flow. Fragment-Based Case Management, for example, combines activity-centric imperative process fragments with declarative data requirements. At runtime, fragments can be combined dynamically, and new ones can be added. Yet, no integrated semantics for flexible activity-centric process models and data models exists.
In this thesis, Wickr, a novel case modeling approach extending fragment-based Case Management, is presented. It supports batch processing of data, sharing data among cases, and a full-fledged data model with associations and multiplicity constraints. We develop a translational semantics for Wickr targeting (colored) Petri nets. The semantics assert that a case adheres to the constraints in both the process fragments and the data models. Among other things, multiplicity constraints must not be violated. Furthermore, the semantics are extended to multiple cases that operate on shared data. Wickr shows that the data structure may reflect process behavior and vice versa. Based on its semantics, prototypes for executing and verifying case models showcase the feasibility of Wickr. Its applicability to knowledge-intensive and to data-centric processes is evaluated using well-known requirements from related work.
The dissertation examines the use of performance information by public managers. “Use” is conceptualized as purposeful utilization in order to steer, learn, and improve public services. The main research question is: Why do public managers use performance information? To answer this question, I systematically review the existing literature, identify research gaps and introduce the approach of my dissertation. The first part deals with manager-related variables that might affect performance information use but which have thus far been disregarded. The second part models performance data use by applying a theory from social psychology which is based on the assumption that this management behavior is conscious and reasoned. The third part examines the extent to which explanations of performance information use vary if we include others sources of “unsystematic” feedback in our analysis. The empirical results are based on survey data from 2011. I surveyed middle managers from eight selected divisions of all German cities with county status (n=954). To analyze the data, I used factor analysis, multiple regression analysis, and structural equation modeling. My research resulted in four major findings: 1) The use of performance information can be modeled as a reasoned behavior which is determined by the attitude of the managers and of their immediate peers. 2) Regular users of performance data surprisingly are not generally inclined to analyze abstract data but rather prefer gathering information through personal interaction. 3) Managers who take on ownership of performance information at an early stage in the measurement process are also more likely to use this data when it is reported to them. 4) Performance reports are only one source of information among many. Public managers prefer verbal feedback from insiders and feedback from external stakeholders over systematic performance reports. The dissertation explains these findings using a deductive approach and discusses their implications for theory and practice.
Background: The worldwide prevalence of diabetes has been increasing in recent years, with a projected prevalence of 700 million patients by 2045, leading to economic burdens on societies. Type 2 diabetes mellitus (T2DM), representing more than 95% of all diabetes cases, is a multifactorial metabolic disorder characterized by insulin resistance leading to an imbalance between insulin requirements and supply. Overweight and obesity are the main risk factors for developing type 2 diabetes mellitus. The lifestyle modification of following a healthy diet and physical activity are the primary successful treatment and prevention methods for type 2 diabetes mellitus. Problems may exist with patients not achieving recommended levels of physical activity. Electrical muscle stimulation (EMS) is an increasingly popular training method and has become in the focus of research in recent years. It involves the external application of an electric field to muscles, which can lead to muscle contraction. Positive effects of EMS training have been found in healthy individuals as well as in various patient groups. New EMS devices offer a wide range of mobile applications for whole-body electrical muscle stimulation (WB-EMS) training, e.g., the intensification of dynamic low-intensity endurance exercises through WB-EMS. This dissertation project aims to investigate whether WB-EMS is suitable for intensifying low-intensive dynamic exercises such as walking and Nordic walking.
Methods: Two independent studies were conducted. The first study aimed to investigate the reliability of exercise parameters during the 10-meter Incremental Shuttle Walk Test (10MISWT) using superimposed WB-EMS (research question 1, sub-question a) and the difference in exercise intensity compared to conventional walking (CON-W, research question 1, sub-question b). The second study aimed to compare differences in exercise parameters between superimposed WB-EMS (WB-EMS-W) and conventional walking (CON-W), as well as between superimposed WB-EMS (WB-EMS-NW) and conventional Nordic walking (CON-NW) on a treadmill (research question 2). Both studies took place in participant groups of healthy, moderately active men aged 35-70 years. During all measurements, the Easy Motion Skin® WB-EMS low frequency stimulation device with adjustable intensities for eight muscle groups was used. The current intensity was individually adjusted for each participant at each trial to ensure safety, avoiding pain and muscle cramps. In study 1, thirteen individuals were included for each sub question. A randomized cross-over design with three measurement appointments used was to avoid confounding factors such as delayed onset muscle soreness. The 10MISWT was performed until the participants no longer met the criteria of the test and recording five outcome measures: peak oxygen uptake (VO2peak), relative VO2peak (rel.VO2peak), maximum walk distance (MWD), blood lactate concentration, and the rate of perceived exertion (RPE).
Eleven participants were included in study 2. A randomized cross-over design in a study with four measurement appointments was used to avoid confounding factors. A treadmill test protocol at constant velocity (6.5 m/s) was developed to compare exercise intensities. Oxygen uptake (VO2), relative VO2 (rel.VO2) blood lactate, and the RPE were used as outcome variables. Test-retest reliability between measurements was determined using a compilation of absolute and relative measures of reliability. Outcome measures in study 2 were studied using multifactorial analyses of variances.
Results: Reliability analysis showed good reliability for VO2peak, rel.VO2peak, MWD and RPE with no statistically significant difference for WB-EMS-W during 10WISWT. However, differences compared to conventional walking in outcome variables were not found. The analysis of the treadmill tests showed significant effects for the factors CON/WB-EMS and W/NW for the outcome variables VO2, rel.VO2 and lactate, with both factors leading to higher results. However, the difference in VO2 and relative VO2 is within the range of biological variability of ± 12%. The factor combination EMS∗W/NW is statistically non-significant for all three variables. WB-EMS resulted in the higher RPE values, RPE differences for W/NW and EMS∗W/NW were not significant.
Discussion: The present project found good reliability for measuring VO2peak, rel. VO2peak, MWD and RPE during 10MISWT during WB-EMS-W, confirming prior research of the test. The test appears technically limited rather than physiologically in healthy, moderately active men. However, it is unsuitable for investigating differences in exercise intensities using WB-EMS-W compared to CON-W due to different perceptions of current intensity between exercise and rest. A treadmill test with constant walking speed was conducted to adjust individual maximum tolerable current intensity for the second part of the project. The treadmill test showed a significant increase in metabolic demands during WB-EMS-W and WB-EMS-NW by an increased VO2 and blood lactate concentration. However, the clinical relevance of these findings remains debatable. The study also found that WB-EMS superimposed exercises are perceived as more strenuous than conventional exercise. While in parts comparable studies lead to higher results for VO2, our results are in line with those of other studies using the same frequency. Due to the minor clinical relevance the use of WB-EMS as exercise intensification tool during walking and Nordic walking is limited. High device cost should be considered. Habituation to WB-EMS could increase current intensity tolerance and VO2 and make it a meaningful method in the treatment of T2DM. Recent figures show that WB-EMS is used in obese people to achieve health and weight goals. The supposed benefit should be further investigated scientifically.
This study explores the identity of the Bene Israel caste from India and its assimilation into Israeli society. The large immigration from India to Israel started in the early 1950s and continued until the early 1970s. Initially, these immigrants struggled hard as they faced many problems such as the language barrier, cultural differences, a new climate, geographical isolation, and racial discrimination. This analysis focuses on the three major aspects of the integration process involving the Bene Israel: economic, socio-cultural and political. The study covers the period from the early fifties to the present.
I will focus on the origin of the Bene Israel, which has evolved after their immigration to Israel; from a Hindu–Muslim lifestyle and customs they integrated into the Jewish life of Israel. Despite its ethnographic nature, this study has theological implications as it is an encounter between Jewish monotheism and Indian polytheism.
All the western scholars who researched the Bene Israel community felt impelled to rely on information received by community members themselves. No written historical evidence recorded Bene Israel culture and origin. Only during the nineteenth century onwards, after the intrusion of western Jewish missionaries, were Jewish books translated into Marathi . Missionary activities among the Bene Israel served as a catalyst for the Bene Israel themselves to investigate their historical past . Haeem Samuel Kehimkar (1830-1908), a Bene Israel teacher, wrote notes on the history of the Bene Israel in India in Marathi in 1897. Brenda Ness wrote in her dissertation:
The results [of the missionary activities] are several works about the community in English and Marathi by Bene-Israel authors which have appeared during the last century. These are, for the most part, not documented; they consist of much theorizing on accepted tradition and tend to be apologetic in nature.
There can be no philosophical explanation or rational justification for an entire community to leave their motherland India, and enter into a process of annihilation of its own free will. I see this as a social and cultural suicide. In craving for a better future in Israel, the Indian Bene Israel community pays an enormously heavy price as a people that are today discarded by the East and disowned by the West: because they chose to become something that they never were and never could be. As it is written, “know where you came from, and where you are going.” A community with an ancient history from a spiritual culture has completely lost its identity and self-esteem.
In concluding this dissertation, I realize the dilemma with which I have confronted the members of the Bene Israel community which I have reviewed after strenuous and constant self-examination. I chose to evolve the diversifications of the younger generations urges towards acceptance, and wish to clarify my intricate analysis of this controversial community. The complexity of living in a Jewish State, where citizens cannot fulfill their basic desires, like matrimony, forced an entire community to conceal their true identity and perjure themselves to blend in, for the sake of national integration. Although scholars accepted their new claims, the skepticism of the rabbinate authorities prevails, and they refuse to marry them to this day, suspecting they are an Indian caste.
Dispersal behavior plays an important role for the geographical distribution and population structure of any given species. Individual’s fitness, reproductive and competitive ability, and dispersal behavior can be determined by the age of the individual. Age-dependent as well as density-dependent dispersal patterns are common in many bird species. In this thesis, I first present age-dependent breeding ability and natal site fidelity in white storks (Ciconia ciconia); migratory birds breeding in large parts of Europe. I predicted that both the proportion of breeding birds and natal site fidelity increase with the age. After the seventies of the last century, following a steep population decline, a recovery of the white stork population has been observed in many regions in Europe. Increasing population density in the white stork population in Eastern Germany especially after 1983 allowed examining density- as well as age-dependent breeding dispersal patterns. Therefore second, I present whether: young birds show more often and longer breeding dispersal than old birds, and frequency of dispersal events increase with the population density increase, especially in the young storks. Third, I present age- and density-dependent dispersal direction preferences in the give population. I asked whether and how the major spring migration direction interacts with dispersal directions of white storks: in different age, and under different population densities. The proportion of breeding individuals increased in the first 22 years of life and then decreased suggesting, the senescent decay in aging storks. Young storks were more faithful to their natal sites than old storks probably due to their innate migratory direction and distance. Young storks dispersed more frequently than old storks in general, but not for longer distance. Proportion of dispersing individuals increased significantly with increasing population densities indicating, density- dependent dispersal behavior in white storks. Moreover, the finding of a significant interaction effects between the age of dispersing birds and year (1980–2006) suggesting, older birds dispersed more from their previous nest sites over time due to increased competition. Both young and old storks dispersed along their spring migration direction; however, directional preferences were different in young storks and old storks. Young storks tended to settle down before reaching their previous nest sites (leading to the south-eastward dispersal) while old birds tended to keep migrating along the migration direction after reaching their previous nest sites (leading to the north-westward dispersal). Cues triggering dispersal events may be age-dependent. Changes in the dispersal direction over time were observed. Dispersal direction became obscured during the second half of the observation period (1993–2006). Increase in competition may affect dispersal behavior in storks. I discuss the potential role of: age for the observed age-dependent dispersal behavior, and competition for the density dependent dispersal behavior. This Ph.D. thesis contributes significantly to the understanding of population structure and geographical distribution of white storks. Moreover, presented age- and density (competition)-dependent dispersal behavior helps understanding underpinning mechanisms of dispersal behavior in bird species.
The term Linked Data refers to connected information sources comprising structured data about a wide range of topics and for a multitude of applications. In recent years, the conceptional and technical foundations of Linked Data have been formalized and refined. To this end, well-known technologies have been established, such as the Resource Description Framework (RDF) as a Linked Data model or the SPARQL Protocol and RDF Query Language (SPARQL) for retrieving this information. Whereas most research has been conducted in the area of generating and publishing Linked Data, this thesis presents novel approaches for improved management. In particular, we illustrate new methods for analyzing and processing SPARQL queries. Here, we present two algorithms suitable for identifying structural relationships between these queries. Both algorithms are applied to a large number of real-world requests to evaluate the performance of the approaches and the quality of their results. Based on this, we introduce different strategies enabling optimized access of Linked Data sources. We demonstrate how the presented approach facilitates effective utilization of SPARQL endpoints by prefetching results relevant for multiple subsequent requests. Furthermore, we contribute a set of metrics for determining technical characteristics of such knowledge bases. To this end, we devise practical heuristics and validate them through thorough analysis of real-world data sources. We discuss the findings and evaluate their impact on utilizing the endpoints. Moreover, we detail the adoption of a scalable infrastructure for improving Linked Data discovery and consumption. As we outline in an exemplary use case, this platform is eligible both for processing and provisioning the corresponding information.
What can we learn from climate data? : Methods for fluctuation, time/scale and phase analysis
(2006)
Since Galileo Galilei invented the first thermometer, researchers have tried to understand the complex dynamics of ocean and atmosphere by means of scientific methods. They observe nature and formulate theories about the climate system. Since some decades powerful computers are capable to simulate the past and future evolution of climate. Time series analysis tries to link the observed data to the computer models: Using statistical methods, one estimates characteristic properties of the underlying climatological processes that in turn can enter the models. The quality of an estimation is evaluated by means of error bars and significance testing. On the one hand, such a test should be capable to detect interesting features, i.e. be sensitive. On the other hand, it should be robust and sort out false positive results, i.e. be specific. This thesis mainly aims to contribute to methodological questions of time series analysis with a focus on sensitivity and specificity and to apply the investigated methods to recent climatological problems. First, the inference of long-range correlations by means of Detrended Fluctuation Analysis (DFA) is studied. It is argued that power-law scaling of the fluctuation function and thus long-memory may not be assumed a priori but have to be established. This requires to investigate the local slopes of the fluctuation function. The variability characteristic for stochastic processes is accounted for by calculating empirical confidence regions. The comparison of a long-memory with a short-memory model shows that the inference of long-range correlations from a finite amount of data by means of DFA is not specific. When aiming to infer short memory by means of DFA, a local slope larger than $\alpha=0.5$ for large scales does not necessarily imply long-memory. Also, a finite scaling of the autocorrelation function is shifted to larger scales in the fluctuation function. It turns out that long-range correlations cannot be concluded unambiguously from the DFA results for the Prague temperature data set. In the second part of the thesis, an equivalence class of nonstationary Gaussian stochastic processes is defined in the wavelet domain. These processes are characterized by means of wavelet multipliers and exhibit well defined time dependent spectral properties; they allow one to generate realizations of any nonstationary Gaussian process. The dependency of the realizations on the wavelets used for the generation is studied, bias and variance of the wavelet sample spectrum are calculated. To overcome the difficulties of multiple testing, an areawise significance test is developed and compared to the conventional pointwise test in terms of sensitivity and specificity. Applications to Climatological and Hydrological questions are presented. The thesis at hand mainly aims to contribute to methodological questions of time series analysis and to apply the investigated methods to recent climatological problems. In the last part, the coupling between El Nino/Southern Oscillation (ENSO) and the Indian Monsoon on inter-annual time scales is studied by means of Hilbert transformation and a curvature defined phase. This method allows one to investigate the relation of two oscillating systems with respect to their phases, independently of their amplitudes. The performance of the technique is evaluated using a toy model. From the data, distinct epochs are identified, especially two intervals of phase coherence, 1886-1908 and 1964-1980, confirming earlier findings from a new point of view. A significance test of high specificity corroborates these results. Also so far unknown periods of coupling invisible to linear methods are detected. These findings suggest that the decreasing correlation during the last decades might be partly inherent to the ENSO/Monsoon system. Finally, a possible interpretation of how volcanic radiative forcing could cause the coupling is outlined.
Countries processing raw coffee beans are burdened with low economical incomes to fight the serious environmental problems caused by the by-products and wastewater that is generated during the wet-coffee processing. The aim of this work was to develop alternative methods of improving the waste by-product quality and thus making the process economically more attractive with valorization options that can be brought to the coffee producers.
The type of processing influences not only the constitution of green coffee but also of by-products and wastewater. Therefore, coffee bean samples as well as by-products and wastewater collected at different production steps of were analyzed. Results show that the composition of wastewater is dependent on how much and how often the wastewater is recycled in the processing. Considering the coffee beans, results indicate that the proteins might be affected during processing and a positive effect of the fermentation on the solubility and accessibility of proteins seems to be probable. The steps of coffee processing influence the different constituents of green coffee beans which, during roasting, give rise to aroma compounds and express the characteristics of roasted coffee beans. Knowing that this group of compounds is involved in the Maillard reaction during roasting, this possibility could be utilized for the coffee producers to improve the quality of green coffee beans and finally the coffee cup quality.
The valorization of coffee wastes through modification to activated carbon has been considered as a low-cost option creating an adsorbent with prospective to compete with commercial carbons. Activation protocol using spent coffee and parchment was developed and prepared to assess their adsorption capacity for organic compounds. Spent coffee grounds and parchment proved to have similar adsorption efficiency to commercial activated carbon.
The results of this study document a significant information originating from the processing of the de-pulped to green coffee beans. Furthermore, it showed that coffee parchment and spent coffee grounds can be valorized as low-cost option to produce activated carbons. Further work needs to be directed to the optimization of the activation methods to improve the quality of the materials produced and the viability of applying such experiments in-situ to bring the coffee producer further valorization opportunities with environmental perspectives.
Coffee producers would profit in establishing appropriate simple technologies to improve green coffee quality, re-use coffee by-products, and wastewater valorization.
In sedimentary basins, rock thermal conductivity can vary both laterally and vertically, thus altering the basin’s thermal structure locally and regionally. Knowledge of the thermal conductivity of geological formations and its spatial variations is essential, not only for quantifying basin evolution and hydrocarbon maturation processes, but also for understanding geothermal conditions in a geological setting. In conjunction with the temperature gradient, thermal conductivity represents the basic input parameter for the determination of the heat-flow density; which, in turn, is applied as a major input parameter in thermal modeling at different scales. Drill-core samples, which are necessary to determine thermal properties by laboratory measurements, are rarely available and often limited to previously explored reservoir formations. Thus, thermal conductivities of Mesozoic rocks in the North German Basin (NGB) are largely unknown. In contrast, geophysical borehole measurements are often available for the entire drilled sequence. Therefore, prediction equations to determine thermal conductivity based on well-log data are desirable. In this study rock thermal conductivity was investigated on different scales by (1) providing thermal-conductivity measurements on Mesozoic rocks, (2) evaluating and improving commonly applied mixing models which were used to estimate matrix and pore-filled rock thermal conductivities, and (3) developing new well-log based equations to predict thermal conductivity in boreholes without core control. Laboratory measurements are performed on sedimentary rock of major geothermal reservoirs in the Northeast German Basin (NEGB) (Aalenian, Rhaethian-Liassic, Stuttgart Fm., and Middle Buntsandstein). Samples are obtained from eight deep geothermal wells that approach depths of up to 2,500 m. Bulk thermal conductivities of Mesozoic sandstones range between 2.1 and 3.9 W/(m∙K), while matrix thermal conductivity ranges between 3.4 and 7.4 W/(m∙K). Local heat flow for the Stralsund location averages 76 mW/m², which is in good agreement to values reported previously for the NEGB. For the first time, in-situ bulk thermal conductivity is indirectly calculated for entire borehole profiles in the NEGB using the determined surface heat flow and measured temperature data. Average bulk thermal conductivity, derived for geological formations within the Mesozoic section, ranges between 1.5 and 3.1 W/(m∙K). The measurement of both dry- and water-saturated thermal conductivities allow further evaluation of different two-component mixing models which are often applied in geothermal calculations (e.g., arithmetic mean, geometric mean, harmonic mean, Hashin-Shtrikman mean, and effective-medium theory mean). It is found that the geometric-mean model shows the best correlation between calculated and measured bulk thermal conductivity. However, by applying new model-dependent correction, equations the quality of fit could be significantly improved and the error diffusion of each model reduced. The ‘corrected’ geometric mean provides the most satisfying results and constitutes a universally applicable model for sedimentary rocks. Furthermore, lithotype-specific and model-independent conversion equations are developed permitting a calculation of water-saturated thermal conductivity from dry-measured thermal conductivity and porosity within an error range of 5 to 10%. The limited availability of core samples and the expensive core-based laboratory measurements make it worthwhile to use petrophysical well logs to determine thermal conductivity for sedimentary rocks. The approach followed in this study is based on the detailed analyses of the relationships between thermal conductivity of rock-forming minerals, which are most abundant in sedimentary rocks, and the properties measured by standard logging tools. By using multivariate statistics separately for clastic, carbonate and evaporite rocks, the findings from these analyses allow the development of prediction equations from large artificial data sets that predict matrix thermal conductivity within an error of 4 to 11%. These equations are validated successfully on a comprehensive subsurface data set from the NGB. In comparison to the application of earlier published approaches formation-dependent developed for certain areas, the new developed equations show a significant error reduction of up to 50%. These results are used to infer rock thermal conductivity for entire borehole profiles. By inversion of corrected in-situ thermal-conductivity profiles, temperature profiles are calculated and compared to measured high-precision temperature logs. The resulting uncertainty in temperature prediction averages < 5%, which reveals the excellent temperature prediction capabilities using the presented approach. In conclusion, data and methods are provided to achieve a much more detailed parameterization of thermal models.
Das Centrosom von Dictyostelium ist acentriolär aufgebaut, misst ca. 500 nm und besteht aus einer dreischichten Core-Struktur mit umgebender Corona, an der Mikrotubuli nukleieren. In dieser Arbeit wurden das centrosomale Protein Cep192 und mögliche Interaktionspartner am Centrosom eingehend untersucht. Die einleitende Lokalisationsuntersuchung von Cep192 ergab, dass es während der gesamten Mitose an den Spindelpolen lokalisiert und im Vergleich zu den anderen Strukturproteinen der Core-Struktur am stärksten exprimiert ist. Die dauerhafte Lokalisation an den Spindelpolen während der Mitose wird für Proteine angenommen, die in den beiden identisch aufgebauten äußeren Core-Schichten lokalisieren, die das mitotische Centrosom formen. Ein Knockdown von Cep192 führte zur Ausbildung von überzähligen Mikrotubuli-organisierenden Zentren (MTOC) sowie zu einer leicht erhöhten Ploidie. Deshalb wird eine Destabilisierung des Centrosoms durch die verminderte Cep192-Expression angenommen. An Cep192 wurden zwei kleine Tags, der SpotH6- und BioH6-Tag, etabliert, die mit kleinen fluoreszierenden Nachweiskonjugaten markiert werden konnten. Mit den so getagten Proteinen konnte die hochauflösende Expansion Microscopy für das Centrosom optimiert werden und die Core-Struktur erstmals proteinspezifisch in der Fluoreszenzmikroskopie dargestellt werden. Cep192 lokalisiert dabei in den äußeren Core-Schichten. Die kombinierte Markierung von Cep192 und den centrosomalen Proteinen CP39 und CP91 in der Expansion Microscopy erlaubte die Darstellung des dreischichtigen Aufbaus der centrosomalen Core-Struktur, wobei CP39 und CP91 zwischen Cep192 in der inneren Core-Schicht lokalisieren. Auch die Corona wurde in der Expansion Microscopy untersucht: Das Corona-Protein CDK5RAP2 lokalisiert in räumlicher Nähe zu Cep192 in der inneren Corona. Ein Vergleich der Corona-Proteine CDK5RAP2, CP148 und CP224 in der Expansion Microscopy ergab unterscheidbare Sublokalisationen der Proteine innerhalb der Corona und relativ zur Core-Struktur. In Biotinylierungsassays mit den centrosomalen Core-Proteinen CP39 und CP91 sowie des Corona-Proteins CDK5RAP2 konnte Cep192 als möglicher Interaktionspartner identifiziert werden.
Die Ergebnisse dieser Arbeit zeigen die wichtige Funktion des Proteins Cep192 im Dictyostelium-Centrosom und ermöglichen durch die Kombination aus Biotinylierungsassays und Expansion Microscopy der untersuchten Proteine ein verbessertes Verständnis der Topologie des Centrosoms.
Substanzen der pharmazeutischen und chemischen Industrie müssen nach internationalen Richtlinien auf deren Toxizität gegenüber Mensch und Umwelt geprüft werden. Dazu gehören u. a. Prüfungen zur Vorhersage des embryotoxischen Potentials, die am lebenden Organismus durchgeführt werden. Mit dem Ziel die Anzahl der Tierversuche zu verringern, die notwendig sind um das toxikologische Profil einer Prüfsubstanz zu bestimmen, wurde der Embryonale Stammzelltest (EST) entwickelt. Als Grundlage des EST dienen embryonale Stammzellen (ES-Zellen) einer Zelllinie. ES-Zellen sind Zellen, die sich in der frühen embryonalen Entwicklung in die Zellen der Keimblätter entwickeln können. Daraus wiederum differenzieren die vielen verschiedenen, unterschiedlich spezialisierten Zelltypen des komplexen Organismus. Im EST wird die Konzentration einer Prüfsubstanz bestimmt, bei der die Differenzierung von ES-Zellen zu Herzmuskelzellen zu 50 % inhibiert wird. Zusätzlich wird die Konzentration der Prüfsubstanz bestimm°t, bei der 50 % der ES-Zellen (IC50D3) bzw. Fibroblastenzellen (IC503T3) absterben. Die allgemeine Toxizität ist damit von der spezifischen Toxizität der Prüfsubstanz auf die ES-Zellen und deren Differenzierung unterscheidbar. Die Parameter fliessen in ein biostatistisches Modell zur Prädiktion des embryotoxischen Potentials der Prüfsubstanzen ein. Es wurde ein Versuchsprotokoll entwickelt, wonach die ES-Zellen sich verstärkt zu Endothelzellen differenzieren. Die Endothelzellen, die im lebenden Organismus die Wand der späteren Blutgefässe, wie Venen und Arterien bilden, wurden mittels molekularbiologischer Methoden auf der RNA- und der Protein-Ebene nachgewiesen und quantifiziert. Verschiedene Zellkulturmethoden, Wachstumsfaktoren, als auch Wachstumsfaktorkonzentrationen wurden auf deren Vermögen die Differenzierung der ES-Zellen zu Endothelzellen zu induzieren, untersucht. Nach der Etablierung des Differenzierungsprotokolls wurden sieben Substanzen auf deren Vermögen geprüft, die Differenzierung von ES-Zellen zu Endothelzellen zu inhibieren. Die Endothelzellen wurden dabei über die Expression der RNA von zwei endothelzellspezifischen Genen quantifiziert. Im Vergleich dazu wurden die IC50D3 und die IC503T3 der Prüfsubstanz bestimmt, um eine Abschätzung des embryotoxischen Potentials der Prüfsubstanz zu ermöglichen. Die Ergebnisse zeigten, dass eine Abschätzung des embryotoxischen Potentials der sieben Prüfsubstanzen in nicht-, schwach- oder stark embryotoxisch vorgenommen werden konnte. Es ist zu schlussfolgern, dass der weiterentwickelte in vitro Embryotoxizitätsassay sensitiv und reproduzierbar ist. Mit der Verwendung von verschiedenen Differenzierungsendpunkten kann die Prädiktionskraft des Assays deutlich verbessert, und die Anzahl von Tierversuchen verringert werden. Durch die Verwendung von molekularbiologischen Markern kann der Assay einem Hochdurchsatzscreening zugängig gemacht werden und damit die Anzahl von Prüfsubstanzen deutlich erhöht werden.
Die Arbeit untersucht erstmals die evangelischen Vereine für weibliche Jugendliche, die so genannten Jungfrauenvereine, von ihrer Entstehung in den 1840er Jahren bis zum 1. Weltkrieg, sowie insbesondere den 1893 gegründeten Verband der evangelischen Jungfrauenvereine Deutschlands (später Evangelischer Verband zur Pflege der weiblichen Jugend Deutschlands, ab 1929 Evangelischer Reichsverband weiblicher Jugend). In der ersten Hälfte des 19. Jahrhundert begann ein Teil des protestantischen Bürgertums damit, für die hochmobilen Unterschichts-Jugendlichen, die im Zuge der Industrialisierung als Handwerksgesellen und Dienstmädchen, später als Fabrikarbeiter und -arbeiterinnen in die expandierenden Großstädten gingen, Herbergen und Vereine zu gründen. Damit trugen die Initiatoren wesentlich zur Entstehung eines öffentliches Bewusstsein für die prekäre Lebenssituation der Unterschichtsjugend und für die Notwendigkeit präventiver Jugendarbeit bei. Der Verband initiierte dann in den Jahren um 1900 zahlreiche innovative soziale Projekte in der weiblichen Jugendpflege und Jugendfürsorge. Die Arbeit untersucht drei Bereiche: 1. Vereine (sog. Abendheime) und Wohnheime für Fabrikarbeiterinnen; 2. die 1894 begonnene Bahnhofmission, die sich der mobilen weiblichen Jugendlichen direkt an die Bahnhöfen annahm; 3. Erholungshäuser für erwerbstätige Jugendliche. Bei allen Initiativen arbeitete der Verband eng mit seinem lokalen Partner, dem Berliner Verein zur Fürsorge für die weibliche Jugend zusammen, der neue Arbeitsbereiche in der Praxis testete. Neben der Verbandsgeschichte im engeren Sinne thematisiert die Untersuchung auch die Konzeption und die Inhalte der Vereinsarbeit. Orientiert an dem Konzept einer christlichen Persönlichkeitsbildung sollte die Vereinsarbeit möglichst viele Bereiche jugendlichen Lebens umfassen: Arbeit (inkl. Erholungsurlaub), Wohnen, Freizeit (Geselligkeit, Lektüre), Gesundheit und Bildung. Da jedoch aufgrund der Orientierung an einem konservativen Frauenbild der Bereich jugendlicher Sexualität bewusst ausgeklammert wurde, erreichte man mit diesem Konzept präventiver Jugendarbeit im wesentlichen nur die ohnehin wohlanständigen Jugendlichen. Die Spannung zwischen einem konservativen Frauenbild einerseits und den modernisierenden Impulsen einer Jugendarbeit mit weiblichen Jugendlichen andererseits zeigt sich auch daran, dass der Verband durch die Gründung eines Berufsverbandes für Sozialarbeiterinnen (Verband der Berufsarbeiterinnen der Inneren Mission) und der Einrichtung von Ausbildungsstätten wesentlichen Anteil an den modernisierenden Prozessen der Verberuflichung der sozialen Arbeit und der kirchlichen Jugendpflege zu Berufen bürgerlicher Frauen hatte.
Die vorliegende Arbeit wurde im Zeitraum von Oktober 2002 bis November 2005 an dem Institut für Biochemie und Biologie der Universität Potsdam in Kooperation mit dem Institut für Chemie des GKSS Forschungszentrums in Teltow unter der Leitung von Herrn Prof. Dr. B. Micheel und Herrn Prof. Dr. Th. Groth angefertigt. Im Rahmen dieser Arbeit wurden die Wechselwirkungen von Immunzellen mit verschiedenen Kultursubstraten untersucht. Dafür wurden drei verschiedene Hybridomzelllinien eingesetzt. Eine Hybridomzelllinie (K2) ist im Laufe dieser Arbeit hergestellt und etabliert worden. Der Einsatz von synthetischen und proteinbeschichteten Kulturoberflächen führte bei Hybridomzellen zu einer deutlich gesteigerten Antikörpersynthese im Vergleich zu herkömmlichen Zellkulturmaterialien. Obwohl diese Zellen in der Regel als Suspensionszellen kultiviert werden, führten die eingesetzten Polymermembranen (PAN, NVP) zu einer verbesserten Antikörpersynthese (um 30%) gegenüber Polystyrol als Referenz. Es konnte gezeigt werden, dass es einen Zusammenhang zwischen der Produktivität und dem Adh asionsverhalten der Hybridomzellen gibt. Um den Einfluss von Proteinen der extrazellulären Matrix auf Zellwachstum und Antikörpersynthese von Hybridomzellen zu untersuchen, wurden proteinbeschichtete Polystyrol-Oberflächen eingesetzt. Für die Modifikationen wurden Fibronektin, Kollagen I, Laminin und BSA ausgewählt. Die Modifikation der Polystyrol-Oberfläche mit geringen Mengen Fibronektin (0,2-0,4 µg/ml) führte zu einer beträchtlichen Steigerung der Antikörpersynthese um 70-120%. Für Kollagen I- und BSA-Beschichtungen konnten Steigerungen von 40% beobachtet werden. Modifikationen der Polystyrol-Oberfläche mit Laminin zeigten nur marginale Effekte. Durch weitere Versuche wurde bestätigt, dass die Adhäsion der Zellen an Kollagen I- und Laminin-beschichteten Oberflächen verringert ist. Die alpha2-Kette des alpha2beta1-Integrins konnte auf der Zelloberfläche nicht nachgewiesen werden. Durch ihr Fehlen wird wahrscheinlich die Bindungsfähigkeit der Zellen an Kollagen I und Laminin beeinflusst. Durch die Ergebnisse konnte gezeigt werden, dass Hybridomzellen nicht nur Suspensionszellen sind und das Kultursubstrate das Zellwachstum und die Produktivität dieser Zellen stark beeinflussen können. Der Einsatz von synthetischen und proteinbeschichteten Kultursubstraten zur Steigerung der Antikörpersynthese kann damit für die industrielle Anwendung von großer Relevanz sein. Für die Modellierung einer Lymphknotenmatrix wurden Fibronektin, Kollagen I, Heparansulfat und N-Acetylglucosamin-mannose in verschiedenen Kombinationen an Glasoberflächen adsorbiert und für Versuche zur In-vitro-Immunisierung eingesetzt. Es konnte gezeigt werden, dass die Modifikation der Oberflächen die Aktivierung und Interaktion von dendritischen Zellen, T- und B-Lymphozyten begünstigt, was durch den Nachweis spezifischer Interleukine (IL12, IL6) und durch die Synthese spezifischer Antikörper bestätigt wurde. Eine spezifische Immunreaktion gegen das Antigen Ovalbumin konnte mit den eingesetzten Zellpopulationen aus Ovalbumin-T-Zell-Rezeptor-transgenen Mäusen nachgewiesen werden. Die In-vitro-Immunantwort wurde dabei am stärksten durch eine Kombination von Kollagen I, Heparansulfat und N-Acetylglucosamin-mannose auf einer Glasoberfläche gefördert. Die Etablierung einer künstlichen Immunreaktion kann eine gesteuerte Aktivierung bzw. Inaktivierung von körpereigenen dendritischen Zellen gegen bestehende Krankheitsmerkmale in vitro ermöglichen. Durch die Versuche wurden Grundlagen für spezifische Immunantworten erarbeitet, die u.a. für die Herstellung von humanen Antikörpern eingesetzt werden können.
Weltweit versuchen Wissenschaftler, künstliche Viren für den Gentransfer zu konstruieren, die nicht reproduktionsfähig sind. Diese sollen die Vorteile der natürlichen Viren besitzen (effizienter Transport von genetischem Material), jedoch keine Antigene auf ihrer Oberfläche tragen, die Immunreaktionen auslösen. Ziel dieses Projektes ist es, einen künstlichen Viruspartikel herzustellen, dessen Basis eine Polyelektrolytenhohlkugel bildet, die mit einer Lipiddoppelschicht bedeckt ist. Um intakte Doppelschichten zu erzeugen, muss die Wechselwirkung zwischen Lipid und Polyelektrolyt (z.B. DNA) verstanden und optimiert werden. Dazu ist es notwendig, die strukturelle Grundlage der Interaktion aufzuklären. Positiv geladene Lipide gehen zwar starke Wechselwirkungen mit der negativ geladenen DNA ein, sie wirken jedoch toxisch auf biologische Zellen. In der vorliegenden Arbeit wurde daher die durch zweiwertige Kationen vermittelte Kopplung von genomischer oder Plasmid-DNA an zwitterionische oder negativ geladene Phospholipide an zwei Modellsystemen untersucht. 1. Modellsystem: Lipidmonoschicht an der Wasser/Luft-Grenzfläche Methoden: Filmwaagentechnik in Kombination mit IR-Spektroskopie (IRRAS), Röntgenreflexion (XR), Röntgendiffraktion (GIXD), Brewsterwinkel-Mikroskopie (BAM), Röntgenfluoreszenz (XRF) und Oberflächenpotentialmessungen Resultate: A) Die Anwesenheit der zweiwertigen Kationen Ba2+, Mg2+, Ca2+ oder Mn2+ in der Subphase hat keinen nachweisbaren Einfluss auf die Struktur der zwitterionischen DMPE- (1,2-Dimyristoyl-phosphatidyl-ethanolamin) Monoschicht. B) In der Subphase gelöste DNA adsorbiert nur in Gegenwart dieser Kationen an der DMPE-Monoschicht. C) Sowohl die Adsorption genomischer Kalbsthymus-DNA als auch der Plasmid-DNA pGL3 bewirkt eine Reduktion des Neigungswinkels der Alkylketten, die auf einen veränderten Platzbedarf der Kopfgruppe zurückzuführen ist. Durch die Umorientierung der Kopfgruppe wird die elektrostatische Wechselwirkung zwischen den positiv geladenen Stickstoffatomen der Lipidkopfgruppen und den negativ geladenen DNA-Phosphaten erhöht. D) Die adsorbierte DNA weist eine geordnete Struktur auf, wenn sie durch Barium-, Magnesium-, Calcium- oder Manganionen komplexiert ist. Der Abstand zwischen parallelen DNA-Strängen hängt dabei von der Größe der DNA-Fragmente sowie von der Art des Kations ab. Die größten Abstände ergeben sich mit Bariumionen, gefolgt von Magnesium- und Calciumionen. Die kleinsten DNA-Abstände werden durch Komplexierung mit Manganionen erhalten. Diese Ionenreihenfolge stellt sich sowohl für genomische DNA als auch für Plasmid-DNA ein. E) Die DNA-Abstände werden durch die Kompression des Lipidfilms nicht beeinflusst. Zwischen der Lipidmonoschicht und der adsorbierten DNA besteht demnach nur eine schwache Wechselwirkung. Offensichtlich befindet sich die durch zweiwertige Kationen komplexierte DNA als weitgehend eigenständige Schicht unter dem Lipidfilm. 2. Modellsystem: Lipiddoppelschicht an der fest/flüssig-Grenzfläche Methoden: Neutronenreflexion (NR) und Quarzmikrowaage (QCM-D) Resultate: A) Das zwitterionische Phospholipid DMPC (1,2-Dimyristoyl-phosphatidylcholin) bildet keine Lipiddoppelschicht auf planaren Polyelektrolytmultischichten aus, deren letzte Lage das positiv geladene PAH (Polyallylamin) ist. B) Hingegen bildet DMPC auf dem negativ geladenen PSS (Polystyrolsulfonat) eine Doppelschicht aus, die jedoch Defekte aufweist. C) Eine Adsorption von genomischer Kalbsthymus-DNA auf dieser Lipidschicht findet nur in Gegenwart von Calciumionen statt. Andere zweiwertige Kationen wurden nicht untersucht. D) Das negativ geladene Phospholipid DLPA (1,2-Dilauryl-phosphatidsäure) bildet auf dem positiv geladenen PAH eine Lipiddoppelschicht aus, die Defekte aufweist. E) DNA adsorbiert ebenfalls erst in Anwesenheit von Calciumionen in der Lösung an die DLPA-Schicht. F) Durch die Zugabe von EDTA (Ethylendiamintetraessigsäure) werden die Calciumionen dem DLPA/DNA-Komplex entzogen, wodurch dieser dissoziiert. Demnach ist die calciuminduzierte Bildung dieser Komplexe reversibel.
Die Arktis erwärmt sich schneller als der Rest der Erde. Die Auswirkungen manifestieren sich unter Anderem in einer verstärkten Erwärmung der arktischen Grenzschicht. Diese Arbeit befasst sich mit Wechselwirkungen zwischen synoptischen Zyklonen und der arktischen Atmosphäre auf lokalen bis überregionalen Skalen. Ausgangspunkt dafür sind Messdaten und Modellsimulationen für den Zeitraum der N-ICE2015 Expedition, die von Anfang Januar bis Ende Juni 2015 im arktischen Nordatlantiksektor stattgefunden hat.
Anhand von Radiosondenmessungen lassen sich Auswirkungen von synoptischen Zyklonen am deutlichsten im Winter erkennen, da sie durch die Advektion warmer und feuchter Luftmassen in die Arktis den Zustand der Atmosphäre von einem strahlungs-klaren in einen strahlungs-opaken ändern. Obwohl dieser scharfe Kontrast nur im Winter existiert, zeigt die Analyse, dass der integrierte Wasserdampf als Indikator für die Advektion von Luftmassen aus niedrigen Breiten in die Arktis auch im Frühjahr geeignet ist. Neben der Advektion von Luftmassen wird der Einfluss der Zyklonen auf die statische Stabilität charakterisiert. Beim Vergleich der N-ICE2015 Beobachtungen mit der SHEBA Kampagne (1997/1998), die über dickerem Eis stattfand, finden sich trotz der unterschiedlichen Meereisregime Ähnlichkeiten in der statischen Stabilität der Atmosphäre. Die beobachteten Differenzen in der Stabilität lassen sich auf Unterschiede in der synoptischen Aktivität zurückführen. Dies lässt vermuten, dass die dünnere Eisdecke auf saisonalen Zeitskalen nur einen geringen Einfluss auf die thermodynamische Struktur der arktischen Troposphäre besitzt, solange eine dicke Schneeschicht sie bedeckt. Ein weiterer Vergleich mit den parallel zur N-ICE2015 Kampagne gestarteten Radiosonden der AWIPEV Station in Ny-Åesund, Spitzbergen, macht deutlich, dass die synoptischen Zyklonen oberhalb der Orographie auf saisonalen Zeitskalen das Wettergeschehen bestimmen.
Des Weiteren werden für Februar 2015 die Auswirkungen von in der Vertikalen variiertem Nudging auf die Entwicklung der Zyklonen am Beispiel des hydrostatischen regionalen Klimamodells HIRHAM5 untersucht. Es zeigt sich, dass die Unterschiede zwischen den acht Modellsimulationen mit abnehmender Anzahl der genudgten Level zunehmen. Die größten Differenzen resultieren vornehmlich aus dem zeitlichen Versatz der Entwicklung synoptischer Zyklonen. Zur Korrektur des Zeitversatzes der Zykloneninitiierung genügt es bereits, Nudging in den unterstem 250 m der Troposphäre anzuwenden. Daneben findet sich zwischen den genudgten HIRHAM5-Simulation und den in situ Messungen der gleiche positive Temperaturbias, den auch ERA-Interim besitzt. Das freie HIRHAM hingegen reproduziert das positive Ende der N-ICE2015 Temperaturverteilung gut, besitzt aber einen starken negativen Bias, der sehr wahrscheinlich aus einer Unterschätzung des Feuchtegehalts resultiert. An Beispiel einer Zyklone wird gezeigt, dass Nudging Einfluss auf die Lage der Höhentiefs besitzt, die ihrerseits die Zyklonenentwicklung am Boden beeinflussen. Im Weiteren wird mittels eines für kleine Ensemblegrößen geeigneten Varianzmaßes eine statistische Einschätzung der Wirkung des Nudgings auf die Vertikale getroffen. Es wird festgestellt, dass die Ähnlichkeit der Modellsimulationen in der unteren Troposphäre generell höher ist als darüber und in 500 hPa ein lokales Minimum besitzt.
Im letzten Teil der Analyse wird die Wechselwirkung der oberen und unteren Stratosphäre anhand zuvor betrachteter Zyklonen mit Daten der ERA-Interim Reanalyse untersucht. Lage und Ausrichtung des Polarwirbels erzeugten ab Anfang Februar 2015 eine ungewöhnlich große Meridionalkomponente des Tropopausenjets, die Zugbahnen in die zentrale Arktis begünstigte. Am Beispiel einer Zyklone wird die Übereinstimmung der synoptischen Entwicklung mit den theoretischen Annahmen über den abwärts gerichteten Einfluss der Stratosphäre auf die Troposphäre hervorgehoben. Dabei spielt die nicht-lineare Wechselwirkung zwischen der Orographie Grönlands, einer Intrusion stratosphärischer Luft in die Troposphäre sowie einer in Richtung Arktis propagierender Rossby-Welle eine tragende Rolle. Als Indikator dieser Wechselwirkung werden horizontale Signaturen aus abwechselnd aufsteigender und absinkender Luft innerhalb der Troposphäre identifiziert.
Virtual 3D city models represent and integrate a variety of spatial data and georeferenced data related to urban areas. With the help of improved remote-sensing technology, official 3D cadastral data, open data or geodata crowdsourcing, the quantity and availability of such data are constantly expanding and its quality is ever improving for many major cities and metropolitan regions. There are numerous fields of applications for such data, including city planning and development, environmental analysis and simulation, disaster and risk management, navigation systems, and interactive city maps.
The dissemination and the interactive use of virtual 3D city models represent key technical functionality required by nearly all corresponding systems, services, and applications. The size and complexity of virtual 3D city models, their management, their handling, and especially their visualization represent challenging tasks. For example, mobile applications can hardly handle these models due to their massive data volume and data heterogeneity. Therefore, the efficient usage of all computational resources (e.g., storage, processing power, main memory, and graphics hardware, etc.) is a key requirement for software engineering in this field. Common approaches are based on complex clients that require the 3D model data (e.g., 3D meshes and 2D textures) to be transferred to them and that then render those received 3D models. However, these applications have to implement most stages of the visualization pipeline on client side. Thus, as high-quality 3D rendering processes strongly depend on locally available computer graphics resources, software engineering faces the challenge of building robust cross-platform client implementations.
Web-based provisioning aims at providing a service-oriented software architecture that consists of tailored functional components for building web-based and mobile applications that manage and visualize virtual 3D city models. This thesis presents corresponding concepts and techniques for web-based provisioning of virtual 3D city models. In particular, it introduces services that allow us to efficiently build applications for virtual 3D city models based on a fine-grained service concept. The thesis covers five main areas:
1. A Service-Based Concept for Image-Based Provisioning of
Virtual 3D City Models It creates a frame for a broad range of services related to the rendering and image-based dissemination of virtual 3D city models.
2. 3D Rendering Service for Virtual 3D City Models This service provides efficient, high-quality 3D rendering functionality for virtual 3D city models. In particular, it copes with requirements such as standardized data formats, massive model texturing, detailed 3D geometry, access to associated feature data, and non-assumed frame-to-frame coherence for parallel service requests. In addition, it supports thematic and artistic styling based on an expandable graphics effects library.
3. Layered Map Service for Virtual 3D City Models It generates a map-like representation of virtual 3D city models using an oblique view. It provides high visual quality, fast initial loading times, simple map-based interaction and feature data access. Based on a configurable client framework, mobile and web-based applications for virtual 3D city models can be created easily.
4. Video Service for Virtual 3D City Models It creates and synthesizes videos from virtual 3D city models. Without requiring client-side 3D rendering capabilities, users can create camera paths by a map-based user interface, configure scene contents, styling, image overlays, text overlays, and their transitions. The service significantly reduces the manual effort typically required to produce such videos. The videos can automatically be updated when the underlying data changes.
5. Service-Based Camera Interaction It supports task-based 3D camera interactions, which can be integrated seamlessly into service-based visualization applications. It is demonstrated how to build such web-based interactive applications for virtual 3D city models using this camera service.
These contributions provide a framework for design, implementation, and deployment of future web-based applications, systems, and services for virtual 3D city models. The approach shows how to decompose the complex, monolithic functionality of current 3D geovisualization systems into independently designed, implemented, and operated service- oriented units. In that sense, this thesis also contributes to microservice architectures for 3D geovisualization systems—a key challenge of today’s IT systems engineering to build scalable IT solutions.
In this work we investigated ultrafast demagnetization in a Heusler-alloy. This material belongs to the halfmetal and exists in a ferromagnetic phase. A special feature of investigated alloy is a structure of electronic bands. The last leads to the specific density of the states. Majority electrons form a metallic like structure while minority electrons form a gap near the Fermi-level, like in semiconductor. This particularity offers a good possibility to use this material as model-like structure and to make some proof of principles concerning demagnetization. Using pump-probe experiments we carried out time-resolved measurements to figure out the times of demagnetization. For the pumping we used ultrashort laser pulses with duration around 100 fs. Simultaneously we used two excitation regimes with two different wavelengths namely 400 nm and 1240 nm. Decreasing the energy of photons to the gap size of the minority electrons we explored the effect of the gap on the demagnetization dynamics. During this work we used for the first time OPA (Optical Parametrical Amplifier) for the generation of the laser irradiation in a long-wave regime. We tested it on the FETOSPEX-beamline in BASSYII electron storage ring. With this new technique we measured wavelength dependent demagnetization dynamics. We estimated that the demagnetization time is in a correlation with photon energy of the excitation pulse. Higher photon energy leads to the faster demagnetization in our material. We associate this result with the existence of the energy-gap for minority electrons and explained it with Elliot-Yaffet-scattering events. Additionally we applied new probe-method for magnetization state in this work and verified their effectivity. It is about the well-known XMCD (X-ray magnetic circular dichroism) which we adopted for the measurements in reflection geometry. Static experiments confirmed that the pure electronic dynamics can be separated from the magnetic one. We used photon energy fixed on the L3 of the corresponding elements with circular polarization. Appropriate incidence angel was estimated from static measurements. Using this probe method in dynamic measurements we explored electronic and magnetic dynamics in this alloy.
Hybrid nanomaterials offer the combination of individual properties of different types of nanoparticles. Some strategies for the development of new nanostructures in larger scale rely on the self-assembly of nanoparticles as a bottom-up approach. The use of templates provides ordered assemblies in defined patterns. In a typical soft-template, nanoparticles and other surface-active agents are incorporated into non-miscible liquids. The resulting self-organized dispersions will mediate nanoparticle interactions to control the subsequent self-assembly. Especially interactions between nanoparticles of very different dispersibility and functionality can be directed at a liquid-liquid interface.
In this project, water-in-oil microemulsions were formulated from quasi-ternary mixtures with Aerosol-OT as surfactant. Oleyl-capped superparamagnetic iron oxide and/or silver nanoparticles were incorporated in the continuous organic phase, while polyethyleneimine-stabilized gold nanoparticles were confined in the dispersed water droplets. Each type of nanoparticle can modulate the surfactant film and the inter-droplet interactions in diverse ways, and their combination causes synergistic effects. Interfacial assemblies of nanoparticles resulted after phase-separation. On one hand, from a biphasic Winsor type II system at low surfactant concentration, drop-casting of the upper phase afforded thin films of ordered nanoparticles in filament-like networks. Detailed characterization proved that this templated assembly over a surface is based on the controlled clustering of nanoparticles and the elongation of the microemulsion droplets. This process offers versatility to use different nanoparticle compositions by keeping the surface functionalization, in different solvents and over different surfaces. On the other hand, a magnetic heterocoagulate was formed at higher surfactant concentration, whose phase-transfer from oleic acid to water was possible with another auxiliary surfactant in ethanol-water mixture. When the original components were initially mixed under heating, defined oil-in-water, magnetic-responsive nanostructures were obtained, consisting on water-dispersible nanoparticle domains embedded by a matrix-shell of oil-dispersible nanoparticles.
Herein, two different approaches were demonstrated to form diverse hybrid nanostructures from reverse microemulsions as self-organized dispersions of the same components. This shows that microemulsions are versatile soft-templates not only for the synthesis of nanoparticles, but also for their self-assembly, which suggest new approaches towards the production of new sophisticated nanomaterials in larger scale.
The economic impact analysis contained in this book shows how irrigation farming is particularly susceptible when applying certain water management policies in the Australian Murray-Darling Basin, one of the world largest river basins and Australia’s most fertile region. By comparing different pricing and non-pricing water management policies with the help of the Water Integrated Market Model, it is found that the impact of water demand reducing policies is most severe on crops that need to be intensively irrigated and are at the same time less water productive. A combination of increasingly frequent and severe droughts and the application of policies that decrease agricultural water demand, in the same region, will create a situation in which the highly water dependent crops rice and cotton cannot be cultivated at all.
The functioning of the surface water-groundwater interface as buffer, filter and reactive zone is important for water quality, ecological health and resilience of streams and riparian ecosystems. Solute and heat exchange across this interface is driven by the advection of water. Characterizing the flow conditions in the streambed is challenging as flow patterns are often complex and multidimensional, driven by surface hydraulic gradients and groundwater discharge. This thesis presents the results of an integrated approach of studies, ranging from the acquisition of field data, the development of analytical and numerical approaches to analyse vertical temperature profiles to the detailed, fully-integrated 3D numerical modelling of water and heat flux at the reach scale. All techniques were applied in order to characterize exchange flux between stream and groundwater, hyporheic flow paths and temperature patterns.
The study was conducted at a reach-scale section of the lowland Selke River, characterized by distinctive pool riffle sequences and fluvial islands and gravel bars. Continuous time series of hydraulic heads and temperatures were measured at different depths in the river bank, the hyporheic zone and within the river. The analyses of the measured diurnal temperature variation in riverbed sediments provided detailed information about the exchange flux between river and groundwater. Beyond the one-dimensional vertical water flow in the riverbed sediment, hyporheic and parafluvial flow patterns were identified. Subsurface flow direction and magnitude around fluvial islands and gravel bars at the study site strongly depended on the position around the geomorphological structures and on the river stage. Horizontal water flux in the streambed substantially impacted temperature patterns in the streambed. At locations with substantial horizontal fluxes the penetration depths of daily temperature fluctuations was reduced in comparison to purely vertical exchange conditions.
The calibrated and validated 3D fully-integrated model of reach-scale water and heat fluxes across the river-groundwater interface was able to accurately represent the real system. The magnitude and variations of the simulated temperatures matched the observed ones, with an average mean absolute error of 0.7 °C and an average Nash Sutcliffe Efficiency of 0.87. The simulation results showed that the water and heat exchange at the surface water-groundwater interface is highly variable in space and time with zones of daily temperature oscillations penetrating deep into the sediment and spots of daily constant temperature following the average groundwater temperature. The average hyporheic flow path temperature was found to strongly correlate with the flow path residence time (flow path length) and the temperature gradient between river and groundwater. Despite the complexity of these processes, the simulation results allowed the derivation of a general empirical relationship between the hyporheic residence times and temperature patterns. The presented results improve our understanding of the complex spatial and temporal dynamics of water flux and thermal processes within the shallow streambed. Understanding these links provides a general basis from which to assess hyporheic temperature conditions in river reaches.
In the past decades, development cooperation (DC) led by conventional bi- and multilateral donors has been joined by a large number of small, private or public-private donors. This pluralism of actors raises questions as to whether or not these new donors are able to implement projects more or less effectively than their conventional counterparts. In contrast to their predecessors, the new donors have committed themselves to be more pragmatic, innovative and flexible in their development cooperation measures. However, they are also criticized for weakening the function of local civil society and have the reputation of being an intransparent and often controversial alternative to public services. With additional financial resources and their new approach to development, the new donors have been described in the literature as playing a controversial role in transforming development cooperation. This dissertation compares the effectiveness of initiatives by new and conventional donors with regard to the provision of public goods and services to the poor in the water and sanitation sector in India.
India is an emerging country but it is experiencing high poverty rates and poor water supply in predominantly rural areas. It lends itself for analyzing this research theme as it is currently being confronted by a large number of actors and approaches that aim to find solutions for these challenges .
In the theoretical framework of this dissertation, four governance configurations are derived from the interaction of varying actor types with regard to hierarchical and non-hierarchical steering of their interactions. These four governance configurations differ in decision-making responsibilities, accountability and delegation of tasks or direction of information flow. The assumption on actor relationships and steering is supplemented by possible alternative explanations in the empirical investigation, such as resource availability, the inheritance of structures and institutions from previous projects in a project context, gaining acceptance through beneficiaries (local legitimacy) as a door opener, and asymmetries of power in the project context.
Case study evidence from seven projects reveals that the actors' relationship is important for successful project delivery. Additionally, the results show that there is a systematic difference between conventional and new donors. Projects led by conventional donors were consistently more successful, due to an actor relationship that placed the responsibility in the hands of the recipient actors and benefited from the trust and reputation of a long-term cooperation. The trust and reputation of conventional donors always went along with a back-up from federal level and trickled down as reputation also at local level implementation. Furthermore, charismatic leaders, as well as the acquired structures and institutions of predecessor projects, also proved to be a positive influencing factor for successful project implementation.
Despite the mixed results of the seven case studies, central recommendations for action can be derived for the various actors involved in development cooperation. For example, new donors could fulfill a supplementary function with conventional donors by developing innovative project approaches through pilot studies and then implementing them as a supplement to the projects of conventional donors on the ground. In return, conventional donors would have to make room the new donors by integrating their approaches into already programs in order to promote donor harmonization. It is also important to identify and occupy niches for activities and to promote harmonization among donors on state and federal sides.
The empirical results demonstrate the need for a harmonization strategy of different donor types in order to prevent duplication, over-experimentation and the failure of development programs. A transformation to successful and sustainable development cooperation can only be achieved through more coordination processes and national self-responsibility.
Water at α-alumina surfaces
(2018)
The (0001) surface of α-Al₂O₃ is the most stable surface cut under UHV conditions and was studied by many groups both theoretically and experimentally. Reaction barriers computed with GGA functionals are known to be underestimated. Based on an example reaction at the (0001) surface, this work seeks to improve this rate by applying a hybrid functional method and perturbation theory (LMP2) with an atomic orbital basis, rather than a plane wave basis. In addition to activation barriers, we calculate the stability and vibrational frequencies of water on the surface. Adsorption energies were compared to PW calculations and confirmed PBE+D2/PW stability results. Especially the vibrational frequencies with the B3LYP hybrid functional that have been calculated for the (0001) surface are in good agreement with experimental findings. Concerning the barriers and the reaction rate constant, the expectations are fully met. It could be shown that recalculation of the transition state leads to an increased barrier, and a decreased rate constant when hybrid functionals or LMP2 are applied.
Furthermore, the molecular beam scattering of water on (0001) surface was studied. In a previous work by Hass the dissociation was studied by AIMD of molecularly adsorbed water, referring to an equilibrium situation. The experimental method to obtaining this is pinhole dosing. In contrast to this earlier work, the dissociation process of heavy water that is brought onto the surface from a molecular beam source was modeled in this work by periodic ab initio molecular dynamics simulations. This experimental method results in a non-equilibrium situation. The calculations with different surface and beam models allow us to understand the results of the non-equilibrium situation better. In contrast to a more equilibrium situation with pinhole dosing, this gives an increase in the dissociation probability, which could be explained and also understood mechanistically by those calculations.
In this work good progress was made in understanding the (1120) surface of α-Al₂O₃ in contact with water in the low-coverage regime. This surface cut is the third most stable one under UHV conditions and has not been studied to a great extent yet. After optimization of the clean, defect free surface, the stability of different adsorbed species could be classified. One molecular minimum and several dissociated species could be detected. Starting from these, reaction rates for various surface reactions were evaluated. A dissociation reaction was shown to be very fast because the molecular minimum is relatively unstable, whereas diffusion reactions cover a wider range from fast to slow. In general, the (112‾0) surface appears to be much more reactive against water than the (0001) surface. In addition to reactivity, harmonic vibrational frequencies were determined for comparison with the findings of the experimental “Interfacial Molecular Spectroscopy” group from Fritz-Haber institute in Berlin. Especially the vibrational frequencies of OD species could be assigned to vibrations from experimental SFG spectra with very good agreement. Also, lattice vibrations were studied in close collaboration with the experimental partners. They perform SFG spectra at very low frequencies to get deep into the lattice vibration region. Correspondingly, a bigger slab model with greater expansion perpendicular to the surface was applied, considering more layers in the bulk. Also with the lattice vibrations we could obtain reasonably good agreement in terms of energy differences between the peaks.
Als ich anfing, ein Thema für meine Promotion zu erarbeiten, fand ich Massentests ziemlich beeindruckend. TIMSS: über 500000 Schüler getestet. PISA: 180000 Schüler getestet. Ich wollte diese Datenbasis nutzen, um Erkenntnisse für die Gestaltung von Unterricht zu gewinnen. Leider kam ich damit nicht weit. Je tiefer ich mich mit den Tests und den dahinterstehenden Theorien befasste, desto deutlicher schälte sich heraus, dass mit diesen Tests keine neue Erkenntnis generiert werden kann. Fast alle Schlussfolgerungen, die aus den Tests gezogen werden, konnten gar nicht aus den Tests selbst gewonnen werden. Ich konzentrierte mich zunehmend auf die Testaufgaben, weil die Geltung der Aussage eines Tests an der Aufgabe erzeugt wird: In der Aufgabe gerinnt das, was die Tester als „mathematische Leistungsfähigkeit“ konstruieren. Der Schüler wiederum hat nur die Aufgabe vor sich. Es gibt nur „gelöst“ (ein Punkt) und „ungelöst“ (kein Punkt). Damit der Schüler den Punkt bekommt, muss er an der richtigen Stelle ankreuzen, oder er muss etwas hinschrei-ben, wofür der Auswerter einen Punkt gibt. In der Dissertation wird untersucht, was die Aufgaben testen, was also alles in das Konstrukt von „mathematischer Leistungsfähigkeit“ einfließt, und ob es das ist, was der Test testen soll. Es stellte sich durchaus erstaunliches heraus: - Oftmals gibt es so viele Möglichkeiten, zur gewünschten Lösung (die nicht in jedem Fall die richtige Lösung ist) zu gelangen, dass man nicht benennen kann, welche Fähigkeit die Aufgabe eigentlich misst. Das Konstrukt „mathematische Leistungsfähigkeit“ wird damit zu einem zufälligen. - Es werden Komponenten von Testfähigkeit mitgemessen: Viele Aufgaben enthalten Irritationen, welche von testerfahrenen Schülern leichter überwunden werden können als von testunerfahrenen. Es gibt Aufgaben, die gelöst werden können, ohne dass man über die Fähigkeit verfügt, die getestet werden soll. Umgekehrt gibt es Aufgaben, die man eventuell nicht lösen kann, obwohl man über diese Fähigkeit verfügt. Als Kernkompetenz von Testfähigkeit stellt sich heraus, weder das gestellte mathematische Problem noch die angeblichen realen Proble-me ernst zu nehmen, sondern sich statt dessen auf das zu konzentrieren, was die Tester angekreuzt oder hinge-schrieben sehen wollen. Prinzipiell erweist es sich als günstig, mittelmäßig zu arbeiten, auf intellektuelle Tiefe in der Auseinandersetzung mit den Aufgaben also zu verzichten. - Man kann bei Multiple-Choice-Tests raten. Die PISA-Gruppe behauptet zwar, dieses Problem technisch über-winden zu können, dies erweist sich aber als Fehleinschätzung. - Sowohl bei TIMSS als auch bei PISA stellt sich heraus, dass die vorgeblich verwendeten didaktischen und psychologischen Theorien lediglich theoretische Mäntel für eine theoriearme Testerstellung sind. Am Beispiel der Theorie der mentalen Situationsmodelle (zur Bearbeitung von realitätsnahen Aufgaben) wird dies ausführlich exemplarisch ausgearbeitet. Das Problem reproduziert sich in anderen Theoriefeldern. Die Tests werden nicht durch Operationalisierungen von Messkonstrukten erstellt, sondern durch systematisches Zusammenstückeln von Aufgaben. - Bei PISA sollte „Mathematical Literacy“ getestet werden. Verkürzt sollte das die Fähigkeit sein, „die Rolle, die Mathematik in der Welt spielt, zu erkennen und zu verstehen, begründete mathematische Urteile abzugeben und sich auf eine Weise mit der Mathematik zu befassen, die den Anforderungen des gegenwärtigen und künftigen Lebens einer Person als eines konstruktiven, engagierten und reflektierten Bürgers entspricht“ (PISA-Eigendarstellung). Von all dem kann angesichts der Aufgaben keine Rede sein. - Bei der Untersuchung des PISA-Tests drängte sich ein mathematikdidaktischer Habitus auf, der eine separate Untersuchung erzwang. Ich habe ihn unter dem Stichwort der „Abkehr von der Sache“ zusammengefasst. Er ist geprägt von Zerstörungen des Mathematischen bei gleichzeitiger Überbetonung des Fachsprachlichen und durch Verwerfungen des Mathematischen und des Realen bei realitätsnahen Aufgaben. Letzteres gründet in der Nicht-beachtung der Authentizität sowohl des Realen als auch des Mathematischen. Die Arbeit versammelt neben den Untersuchungen zu TIMSS und PISA ein ausführliches Kapitel über das Prob-lem des Testens und eine Darstellung der Methodologie und Praxis der Objektiven Hermeneutik.
Was machen Schulleiter tatsächlich und welche Faktoren beeinflussen diese ausgeführten Tätigkeiten?
(2015)
Während die theoretische Arbeitsbeschreibung und das Rollenbild von Schulleitern vielfach in der Forschung aufgegriffen wurde, gibt es – wie übrigens im gesamten Bereich Public Management – nur wenige empirische Untersuchungen, die aus einer betriebswirtschaftlichen Managementbetrachtung heraus untersuchen, was Schulleiter wirklich machen, d.h. welchen Tätigkeiten und Aufgaben die genannten Personen nachgehen und welche Unterschiede sich feststellen lassen. Besondere Relevanz erhält die Thematik durch das sich wandelnde Aufgabenbild des Schulleiters, getrieben insbesondere durch die zusätzliche Autonomie der Einzelschule, aber auch durch die Fokussierung auf die Performance und Wirksamkeit der Einzelschule und verbunden damit, die Abhängigkeit dieser von der Arbeit des Schulleiters. Hier bildet das Verständnis der Aufgaben und Tätigkeiten eine wichtige Grundlage, die jedoch unzureichend erforscht ist. Mit Hilfe einer explorativen Beobachtung von 15 Schulleiterinnen und Schulleitern und damit einer empirischen Untersuchung von insgesamt 7591 Arbeitsminuten und 774 Aktivitäten in Kombination mit ausführlichen qualitativen, halboffenen Interviews wird durch diese Arbeit eine detaillierte Betrachtung des tatsächlichen Schulleitungsmanagementhandelns möglich. So wird sichtbar, dass sich die Aufgaben und Tätigkeiten der Schulleiter in zentralen Bereichen unterscheiden und eine Typologisierung entlang von Rollenbeschreibungen und Leadership Behavior zu kurz greift. Es konnte zum ersten Mal in dieser Ausführlichkeit innerhalb des deutschen Schulsystems gezeigt werden, dass Schulleiter Kommunikationsmanager sind. Darüber hinaus entwickelt das hier dokumentierte Forschungsvorhaben Hypothesen zu den Faktoren, die einen Einfluss auf die Aufgaben und Tätigkeiten haben und beschreibt dezidiert Implikationen, die diese Erkenntnisse auf die Tätigkeit des Schulleiters, die weitere Forschung aber auch die politische Rahmengestaltung und, damit verbunden, die Weiterentwicklung des Schulsystems haben.