Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (3265) (entfernen)
Sprache
- Deutsch (3265) (entfernen)
Schlagworte
- Deutschland (9)
- Modellierung (9)
- Spracherwerb (9)
- language acquisition (9)
- taste (7)
- Bildung (6)
- Evaluation (6)
- Geschmack (6)
- Nanopartikel (6)
- Polymer (6)
Institut
- Institut für Chemie (330)
- Wirtschaftswissenschaften (321)
- Institut für Biochemie und Biologie (304)
- Öffentliches Recht (240)
- Institut für Physik und Astronomie (229)
- Bürgerliches Recht (217)
- Historisches Institut (207)
- Institut für Ernährungswissenschaft (164)
- Sozialwissenschaften (129)
- Department Erziehungswissenschaft (98)
- Institut für Geowissenschaften (95)
- Department Psychologie (86)
- Department Sport- und Gesundheitswissenschaften (86)
- Institut für Umweltwissenschaften und Geographie (84)
- Institut für Germanistik (80)
- Strafrecht (80)
- Institut für Informatik und Computational Science (76)
- Institut für Romanistik (58)
- Philosophische Fakultät (54)
- Institut für Jüdische Studien und Religionswissenschaft (44)
- Institut für Künste und Medien (41)
- Department Linguistik (40)
- Department Musik und Kunst (26)
- Institut für Mathematik (26)
- Institut für Philosophie (26)
- Extern (24)
- Institut für Slavistik (23)
- Department Grundschulpädagogik (14)
- Fachgruppe Betriebswirtschaftslehre (11)
- Strukturbereich Bildungswissenschaften (11)
- Fachgruppe Politik- & Verwaltungswissenschaft (9)
- Institut für Anglistik und Amerikanistik (8)
- MenschenRechtsZentrum (6)
- Department für Inklusionspädagogik (5)
- Hasso-Plattner-Institut für Digital Engineering GmbH (5)
- Hasso-Plattner-Institut für Digital Engineering gGmbH (4)
- Klassische Philologie (4)
- Institut für Religionswissenschaft (3)
- Kommunalwissenschaftliches Institut (3)
- Lehreinheit für Wirtschafts-Arbeit-Technik (3)
- Fachgruppe Soziologie (2)
- Juristische Fakultät (2)
- Fakultät für Gesundheitswissenschaften (1)
- Interdisziplinäres Zentrum für Kognitive Studien (1)
- Language Acquisition (1)
- Potsdam Transfer - Zentrum für Gründung, Innovation, Wissens- und Technologietransfer (1)
- Psycholinguistics and Neurolinguistics (1)
- Strukturbereich Kognitionswissenschaften (1)
- Wirtschafts- und Sozialwissenschaftliche Fakultät (1)
"Der unterirdische Kampf"
(2016)
Die militärische Rüstungsbürokratie zwischen Niederlage des Deutschen Kaiserreiches und ›Totalem Krieg‹ der NS-Diktatur – in dieses Spannungsverhältnis begibt sich der Autor. Er untersucht, wie die Fachleute des Wehrwirtschafts- und Rüstungsamtes die Mobilisierung planten – und dabei scheiterten.
Bereits kurze Zeit nach der deutschen Niederlage von 1918 wurden die wirtschaftlichen Aspekte der Kriegführung wieder von einem kleinen, hochprofessionellen Offizierskreis diskutiert. Sie nahmen Gedanken aus der Zeit des Ersten Weltkrieges auf und forderten in der Reichswehr und noch stärker in der Wehrmacht die Steuerungshoheit des Militärs über die kriegsrelevante Wirtschaft. Ihre Planungen und Maßnahmen waren nicht nur im Offizierkorps selbst umstritten, sondern unterlagen letztlich auch den Widerständen der Privatwirtschaft und den Interessen von NS-Parteigrößen. Entlang dieser Fronten beschreibt der Autor eine militärische Organisation von ihrem Aufbau 1924 bis zu ihrer ›Zerschlagung‹ durch Albert Speer 1942. Dabei nimmt er auch das alles andere als eindeutige Verhalten des Führungspersonals im Amt in den Blick.
"Seid mutig und aufrecht!"
(2016)
Der 'Centralverein deutscher Staatsbürger jüdischen Glaubens' (C.V.) wurde 1893 in Berlin gegründet. Sein Tätigkeitsschwerpunkt lag ursprünglich auf dem Gebiet des Rechtsschutzes gegen antisemitische Diskriminierungen. Eine zweite Säule seiner Arbeit war die Aufklärung der Nichtjuden über das 'wahre Wesen' des Judentums. Johann Nicolai analysiert in diesem Band unter Auswertung der Moskauer Archivbestände die Entwicklung des Vereins von 1933 bis zu seiner Auflösung im Jahr 1938. Im Mittelpunkt der Studie steht die Frage, wie der Centralverein die Fortsetzung seiner Arbeit gegenüber seinen Mitgliedern begründete, obwohl im Nationalsozialismus die grundlegenden Bürgerrechte für die deutschen Juden, die er ursprünglich verteidigen wollte, nicht mehr gewährleistet waren. Ein besonderer Fokus liegt auf der Wandlung des Centralvereins nach den Nürnberger Gesetzen und der darauf erfolgten Umbenennung und Umstrukturierung. Wesentlicher Bestandteil ist auch die Auseinandersetzung mit der jüdischen Emigration nach Übersee. Nicolai zeigt auf, dass es bis tief in die 1930er-Jahre hinein starke Spannungen im deutschen Judentum gab.
In dieser Arbeit wurden Zusammenhänge zwischen den sexuellen Erfahrungen junger Frauen und Männer, ihren Persönlichkeitseigenschaften und ihren sexualmoralischen Einstellungen auf der einen Seite und der Einschätzung ihrer sexuellen Handlungsfähigkeit auf der anderen Seite untersucht. Die Grundlage für das Modell der sexuellen Handlungsfähigkeit bildeten die Vorstellungen der Arbeitsgruppe um Matthias Grundmann (Grundmann et al. 2006) sowie von Emirbayer und Mische (1998). Das in dieser Arbeit entwickelte Modell zur sexuellen Handlungsfähigkeit ist ein multidimensionales Konstrukt, das sich aus den Komponenten „sexuelle Kommunikation“, „sexuelle Zufriedenheit“, „sexuelle Reziprozität“ sowie „sexuelle Eigenverantwortung“ zusammensetzt. „Sexuelle Kommunikation“ beinhaltet die Fähigkeit, sexuelle Wünsche zum Ausdruck bringen zu können. „Sexuelle Zufriedenheit“ beschreibt den Grad der Zufriedenheit mit dem eigenen Sexualleben. „Sexuelle Reziprozität“ verweist auf die Fähigkeit, sexuelle Aufmerksamkeiten sowohl Annehmen als auch Geben zu können. „Sexuelle Eigenverantwortung“ betont schließlich die Einschätzung, inwieweit die eigene Sexualität selbst bestimmt gestaltet werden kann. Mit Emirbayer und Mische werden die sexuellen Erfahrungen der Frauen und Männer als Korrelate der Einschätzung der Dimensionen der sexuellen Handlungsfähigkeit betrachtet. Mit Grundmann et al. sind es zudem verschiedene Persönlichkeitseigenschaften sowie sexualmoralische Einstellungen, deren Beschaffenheiten Aussagen über die sexuelle Handlungsfähigkeit erlauben. Um die Thematik der sexuellen Handlungsfähigkeit empirisch zu betrachten, wurden im Jahr 2006 695 junge Potsdamer/innen im Alter von 19 bis 21 Jahren im Rahmen einer standardisierten Erhebung zu ihren sexuellen und Beziehungserfahrungen befragt. Die empirischen Analysen verdeutlichen eine ko-konstruktive Anschauung von der Entwicklung sexueller Handlungsfähigkeit. Diese entsteht nicht im Individuum allein, sondern innerhalb der Interaktions- und Aushandlungsprozesse des Individuums mit den Anderen seiner sozialen und sexuellen Umwelt. Von Bedeutung erweisen dabei sowohl die Erlebnisse der sexuellen Biografie als auch die Persönlichkeitsmerkmale eines jeden Einzelnen. Nur geringfügig erscheinen die erfragten sexualmoralischen Ansichten von Bedeutung.
Wenn in einem verbrannten Gebäude, in dem sich unliebsame Untermieter breit gemacht haben, diese damit beginnen, Stein für Stein das restliche Gemäuer abzutragen, um die verbliebenen Fenster zuzumauern, wird es Zeit, mit mehr oder weniger freundlichen Worten die Bewohner des Hauses zu verweisen, die nur verhindern, dass sich neue Besucher dem Gelände nähern. Dafür muss freilich alter und neuer Behang von den Wänden genommen werden; und eben durch die Verbannung all dessen, was nicht an diesen Ort gehört, kann ein freundliches Bild des Dichters Friedrich Hölderlin erhalten bleiben, der nicht nur poetisch, sondern auch zwischenmenschlich einigen bedeutenden Persönlichkeiten seiner Zeit im Wege stand, was ihm wohl in beiden Aspekten zum Verhängnis geworden ist, weil er sich weder verwandtschaftlich noch im Rahmen des poetischen Geschäfts gegen seine intrigante Umgebung zur Wehr zu setzen wusste. Der etwas länger geratene Aufsatz „So sind die Zeichen in der Welt“ soll weder ein neues Heiligenbild schaffen noch einen frisch aus der Tasche gezogenen Popstar zum Liebhaben, sondern will behutsam einige Fresken des Gedankengebäudes Hölderlin für diejenigen freilegen, deren Bild des Dichters noch nicht völlig von der Vorstellung des wahnsinnig gewordenen Dichters übertüncht worden ist. Obwohl sich die Arbeit damit ganz bewusst den Hölderlin - Studien von Pierre Bertaux anschließt, setzt sie sich auch mit dieser Wahrnehmungslinie kritisch auseinander, indem sie neben biographischen Anmerkungen auch stil- und ideologiekritische Methoden einsetzt, um die manchmal unübersichtliche Quellenlage ein wenig durchsichtiger zu machen, als dies bisher der Fall ist. Über eine solche, in Einzelheiten vielleicht unorthodox wirkende Darstellung hinaus will die Arbeit die Behandlungsmöglichkeit von Friedrich Hölderlin im Deutschunterricht des Gymnasiums nahe legen, weil selbst Jüngeres über ihn behandelt wird, das darauf hinweist, inwiefern die Marginalisierung dieses Poeten damit zu tun hat, dass er während eines langen Abschnitts der Literaturgeschichte auch dafür verantwortlich gemacht wurde, was er weder geschrieben hat noch meinte. Die Intention der Arbeit besteht insgesamt in der Vorstellung, das Gedankengut Hölderlins müsse aus dem breiten Strom einer konservativen Wahrnehmungstradition entfernt werden (zu der beispielsweise auch die dramatische Hölderlin - Bearbeitung E. Jelineks Wolken.Heim. gezählt werden kann, selbst wenn sie widerborstig gemeint sein sollte) und dieser Dichter sei als realistischer Denker zu restaurieren, der sich deshalb dem Literaturbetrieb seiner Zeit entgezogen hat, weil er, selbst der Lebensführung nach, sehr früh die Bewegungen gegen französische Aufklärung und Revolution begriffen hat – und von deren massiver Ablehnung Hölderlin bis heute getroffen wird. Da Friedrich Hölderlin aber nicht nur ideologischer Betrachtung, Kritik und Verfälschung ausgesetzt ist, sondern auch regelmäßig Gegenstand umfangreicher biographisch - psychologischer Spekulationen darstellt, wurde dieser Aspekt nicht nur bezogen auf die Rezeptionsgeschichte untersucht, sondern am Gegenstand selbst. In diesem Zusammenhang konnte nicht nur eine bislang vernachlässigte Beziehung Hölderlins zu Sophie Mereau rekonstruiert und der Verdacht zurückgewiesen werden, es habe zur selben Zeit eine homoerotische Beziehung zu Isaak Sinclair bestanden, vielmehr gelang auch der Nachweis, dass das Verhältnis des Dichters zu Susette Gontard weder singulär noch konkurrenzlos gewesen ist, weshalb sich eine eindeutige Zuordnung dieser Frau zur poetischen Figur der Diotima verbietet. Dazu wurde einerseits der Umstand entmythologisiert, nach dem die Liebe zur Frankfurter Zeit platonisch betrieben wurde, andererseits aber diese Affaire den Verhältnissen Hölderlins zu anderen Frauen zugeordnet, mit denen sich Frau Gontard – letztlich erfolglos – dadurch auseinander zu setzen versuchte, dass sie die Rolle Diotimas okkupierte. Dabei ließ sich schließlich der Verdacht erhärten, die stabilste Bindung des Dichters an eine Frau sei die zur eigenen Schwester Heinrike gewesen, mit der bis zum Bruch von Bordeaux aus zwar unregelmäßig, aber emotional immer wieder ausufernde Briefe getauscht wurden. Es ist nicht ohne Ironie, wenn ausgerechnet im vielleicht bekanntesten Gedicht Hölderlins, der „Hälfte des Lebens“, in dem regelmäßig ein bedeutender philosophischer Entwurf gesehen wird, Rudimente eines Textes enthalten sind, der – eindeutig erotisch konnotiert – an die eigene Schwester gerichtet ist.
"Vorübergehende" Leiharbeit
(2018)
Leiharbeit ist aus dem modernen Arbeitsleben nicht mehr wegzudenken. Von besonderer Bedeutung für Entleiher und Leiharbeitnehmer waren und sind seit jeher die zeitliche Limitierung von Leiharbeit. Die Unbestimmtheit des durch die Leiharbeitsrichtlinie eingeführten Merkmals der »vorübergehenden« Dauer von Leiharbeit hat in Literatur und Rechtsprechung viele Meinungen hervorgerufen. Rechtssicherheit haben all diese nicht gebracht. Der Autor widmet sich der Herkunft und Bedeutung des Begriffs der vorübergehenden Dauer und bietet ein grundrechts- und unionsrechtskonformes Lösungsmodell zum Verständnis und Umgang mit diesem Merkmal. Die gefundenen Ergebnisse überträgt er auf die AÜG-Novelle von 2017.
Anhand des religiösen Selbstverständnisses der Kirchen und des darauf beruhenden Begriffs der »Dienstgemeinschaft« untersucht der Autor Zulässigkeit und Grenzen der Leiharbeit in kirchlichen Einrichtungen. Er empfiehlt die Schaffung von Regelwerken zur Einhaltung kirchlicher Loyalitätspflichten.
"Wortabruf im Handumdrehen"?
(2017)
Populärwissenschaftlicher Abstract: Bislang gibt es in der beobachtenden optischen Astronomie zwei verschiedene Herangehensweisen: Einerseits werden Objekte durch Kameras abbildend erfaßt, andererseits werden durch die wellenlängenabhängige Zerlegung ihres Lichtes Spektren gewonnen. Das Integral - Field - Verfahren ist eine relativ neue Technik, welche die genannten Beobachtungsmethoden vereint. Das Objektbild im Teleskopfokus wird in räumlich zerlegt und jedes Ortselement einem gemeinsamen Spektrografen zugeführt. Hierdurch wird das Objekt nicht nur zweidimensional räumlich erfaßt, sondern zusätzlich die spektrale Kompenente als dritte Dimension erhalten, weswegen das Verfahren auch als 3D-Methode bezeichnet wird. Anschaulich kann man sich das Datenresultat als eine Abbildung vorstellen, in der jeder einzelne Bildpunkt nicht mehr nur einen Intensitätswert enthält, sondern gleich ein ganzes Spektrum. Diese Technik ermöglicht es, ausgedehnte Objekte im Unterschied zu gängigen Spaltspektrografen komplett zu erfassen. Die besondere Stärke der Methode ist die Möglichkeit, die Hintergrundkontamination der unmittelbaren Umgebung des Objektes zu erfassen und in der Auswertung zu berücksichtigen. Durch diese Fähigkeit erscheint die 3D-Methode prädestiniert für den durch moderne Großteleskope erschlossenen Bereich der extragalaktischen Stellarastronomie. Die detaillierte Untersuchung aufgelöster stellare Populationen in nahegelegenen Galaxien ist erst seit kurzer Zeit dank der Fortschritte mit modernen Grossteleskopen und fortschrittlicher Instrumentierung möglich geworden. Wegen der Bedeutung für die Entstehung und Evolution von Galaxien werden diese Arbeiten zukünftig weiter an Bedeutung gewinnen. In der vorliegenden Arbeit wurde die Integral-Field-Spektroskopie an zwei planetarischen Nebeln in der nächstgelegenen großen Spiralgalaxie M31 (NGC 224) getestet, deren Helligkeiten und Koordinaten aus einer Durchmusterung vorlagen. Hierzu wurden Beobachtungen mit dem MPFS-Instrument am russischen 6m - Teleskop in Selentschuk/Kaukasus sowie mit INTEGRAL/WYFFOS am englischen William-Herschel-Teleskop auf La Palma gewonnen. Ein überraschendes Ergebnis war, daß eins der beiden Objekte falsch klassifiziert wurde. Sowohl die meßbare räumliche Ausdehnung des Objektes als auch das spektrale Erscheinungsbild schlossen die Identität mit einem planetarischen Nebel aus. Mit hoher Wahrscheinlichkeit handelt es sich um einen Supernovaüberrest, zumal im Rahmen der Fehler an gleicher Stelle eine vom Röntgensatelliten ROSAT detektierte Röntgenquelle liegt. Die in diesem Projekt verwendeten Integral-Field-Instrumente wiesen zwei verschiedene Bauweisen auf, die sich miteinander vergleichen ließen. Ein Hauptkritikpunkt der verwendeten Instrumente war ihre geringe Lichtausbeute. Die gesammelten Erfahrung fanden Eingang in das Konzept des derzeit in Potsdam in der Fertigung befindlichen 3D-Instruments PMAS (Potsdamer Multi - Apertur - Spektrophotometer), welcher zunächst für das 3.5m-Teleskop des Calar - Alto - Observatoriums in Südspanien vorgesehen ist. Um die Effizienz dieses Instrumentes zu verbessern, wurde in dieser Arbeit die Kopplung der zum Bildrasterung verwendeten Optik zu den Lichtleitfasern im Labor untersucht. Die Untersuchungen zur Maximierung von Lichtausbeute und Stabilität zeigen, daß sich die Effizienz durch Auswahl einer geeigneten Koppelmethode um etwa 20 Prozent steigern lässt.
Indonesien zählt zu den weltweit führenden Ländern bei der Nutzung von geothermischer Energie. Die geothermischen Energiequellen sind im Wesentlichen an den aktiven Vulkanismus gebunden, der durch die Prozesse an der indonesischen Subduktionszone verursacht wird. Darüber hinaus sind geotektonische Strukturen wie beispielsweise die Sumatra-Störung als verstärkende Faktoren für das geothermische Potenzial von Bedeutung. Bei der geophysikalischen Erkundung der indonesischen Geothermie-Ressourcen konzentrierte man sich bisher vor allem auf die Magnetotellurik. Passive Seismologie wurde dahingegen ausschließlich für die Überwachung von im Betrieb befindlichen Geothermie-Anlagen verwendet. Jüngste Untersuchungungen z.B. in Island und in den USA haben jedoch gezeigt, dass seismologische Verfahren bereits in der Erkundungsphase wichtige Informationen zu den physikalischen Eigenschaften, zum Spannungsfeld und zu möglichen Fluid- und Wärmetransportwegen liefern können. In der vorgelegten Doktorarbeit werden verschiedene moderne Methoden der passiven Seismologie verwendet, um beispielhaft ein neues, von der indonesischen Regierung für zukünftige geothermische Energiegewinnung ausgewiesenes Gebiet im nördlichen Teil Sumatras (Indonesien) zu erkunden. Die konkreten Ziele der Untersuchungen umfassten (1) die Ableitung von 3D Strukturmodellen der P- und S-Wellen Geschwindigkeiten (Parameter Vp und Vs), (2) die Bestimmung der Absorptionseigenschaften (Parameter Qp), und (3) die Kartierung und Charakterisierung von Störungssystemen auf der Grundlage der Seismizitätsverteilung und der Herdflächenlösungen. Für diese Zwecke habe ich zusammen mit Kollegen ein seismologisches Netzwerk in Tarutung (Sumatra) aufgebaut und über einen Zeitraum von 10 Monaten (Mai 2011 – Februar 2012) betrieben. Insgesamt wurden hierbei 42 Stationen (jeweils ausgestattet mit EDL-Datenlogger, 3-Komponenten, 1 Hz Seismometer) über eine Fläche von etwa 35 x 35 km verteilt. Mit dem Netzwerk wurden im gesamten Zeitraum 2568 lokale Erdbeben registriert. Die integrierte Betrachtung der Ergebnisse aus den verschiedenen Teilstudien (Tomographie, Erdbebenverteilung) erlaubt neue Einblicke in die generelle geologische Stukturierung sowie eine Eingrenzung von Bereichen mit einem erhöhten geothermischen Potenzial. Das tomographische Vp-Modell ermöglicht eine Bestimmung der Geometrie von Sedimentbecken entlang der Sumatra-Störung. Für die Geothermie besonders interessant ist der Bereich nordwestlich des Tarutung-Beckens. Die dort abgebildeten Anomalien (erhöhtes Vp/Vs, geringes Qp) habe ich als mögliche Aufstiegswege von warmen Fluiden interpretiert. Die scheinbar asymetrische Verteilung der Anomalien wird hierbei im Zusammenhang mit der Seismizitätsverteilung, der Geometrie der Beben-Bruchflächen, sowie struktur-geologischen Modellvorstellungen diskutiert. Damit werden wesentliche Informationen für die Planung einer zukünftigen geothermischen Anlage bereitgestellt.
Die vorliegende Arbeit 'Abflußentwicklung in Teileinzugsgebieten des Rheins - Simulationen für den Ist-Zustand und für Klimaszenarien' untersucht Auswirkungen möglicher zukünftiger Klimaänderungen auf das Abflußgeschehen in ausgewählten, durch Mittelgebirge geprägten Teileinzugsgebieten des Rheins: Mosel (bis Pegel Cochem); Sieg (bis Pegel Menden 1) und Main (bis Pegel Kemmern).In einem ersten Schritt werden unter Verwendung des hydrologischen Modells HBV-D wichtige Modellprozesse entsprechend der Einzugsgebietscharakteristik parametrisiert und ein Abbild der Gebietshydrologie erzeugt, das mit Zeitreihen gemessener Tageswerte (Temperatur, Niederschlag) eine Zeitreihe der Pegeldurchflüsse simulieren kann. Die Güte der Simulation des Ist-Zustandes (Standard-Meßzeitraum 1.1.1961-31.12.1999) ist für die Kalibrierungs- und Validierungszeiträume in allen Untersuchungsgebieten gut bis sehr gut.Zur Erleichterung der umfangreichen, zeitaufwendigen einzugsgebietsbezogenen Datenaufbereitung für das hydrologische Modell HBV-D wurde eine Arbeitsumgebung auf Basis von Programmerweiterungen des Geoinformationssystems ArcView und zusätzlichen Hilfsprogrammen entwickelt. Die Arbeitsumgebung HBV-Params enthält eine graphische Benutzeroberfläche und räumt sowohl erfahrenen Hydrologen als auch hydrologisch geschulten Anwendern, z.B. Studenten der Vertiefungsrichtung Hydrologie, Flexibilität und vollständige Kontrolle bei der Ableitung von Parameterwerten und der Editierung von Parameter- und Steuerdateien ein. Somit ist HBV-D im Gegensatz zu Vorläuferversionen mit rudimentären Arbeitsumgebungen auch außerhalb der Forschung für Lehr- und Übungszwecke einsetzbar.In einem zweiten Schritt werden Gebietsniederschlagssummen, Gebietstemperaturen und simulierte Mittelwerte des Durchflusses (MQ) des Ist-Zustandes mit den Zuständen zweier Klimaszenarien für den Szenarienzeitraum 100 Jahre später (2061-2099) verglichen. Die Klimaszenarien beruhen auf simulierten Zirkulationsmustern je eines Modellaufes zweier Globaler Zirkulationsmodelle (GCM), die mit einem statistischen Regionalisierungsverfahren in Tageswertszenarien (Temperatur, Niederschlag) an Meßstationen in den Untersuchungsgebieten überführt wurden und als Eingangsdaten des hydrologischen Modells verwendet werden.Für die zweite Hälfte des 21. Jahrhunderts weisen beide regionalisierten Klimaszenarien eine Zunahme der Jahresmittel der Gebietstemperatur sowie eine Zunahme der Jahressummen der Gebietsniederschläge auf, die mit einer hohen Variabilität einhergeht. Eine Betrachtung der saisonalen (monatlichen) Änderungsbeträge von Temperatur, Niederschlag und mittlerem Durchfluß zwischen Szenarienzeitraum (2061-2099) und Ist-Zustand ergibt in allen Untersuchungsgebieten eine Temperaturzunahme (höher im Sommer als im Winter) und eine generelle Zunahme der Niederschlagssummen (mit starken Schwankungen zwischen den Einzelmonaten), die bei der hydrologischen Simulation zu deutlich höheren mittleren Durchflüssen von November bis März und leicht erhöhten mittleren Durchflüssen in den restlichen Monaten führen. Die Stärke der Durchflußerhöhung ist nach den individuellen Klimaszenarien unterschiedlich und im Sommer- bzw. Winterhalbjahr gegenläufig ausgeprägt. Hauptursache für die simulierte starke Zunahme der mittleren Durchflüsse im Winterhalbjahr ist die trotz Temperaturerhöhung der Klimaszenarien winterlich niedrige Evapotranspiration, so daß erhöhte Niederschläge direkt in erhöhten Durchfluß transformiert werden können.Der Vergleich der Untersuchungsgebiete zeigt in Einzelmonaten von West nach Ost abnehmende Änderungsbeträge der Niederschlagssummen, die als Hinweis auf die Bedeutung der Kontinentalitätseinflüsse auch unter geänderten klimatischen Bedingungen in Südwestdeutschland aufgefaßt werden könnten.Aus den regionalisierten Klimaszenarien werden Änderungsbeträge für die Modulation gemessener Zeitreihen mittels synthetischer Szenarien abgeleitet, die mit einem geringen Rechenaufwand in hydrologische Modellantworten überführt werden können. Die direkte Ableitung synthetischer Szenarien aus GCM-Ergebniswerten (bodennahe Temperatur und Gesamtniederschlag) an einzelnen GCM-Gitterpunkten erbrachte unbefriedigende Ergebnisse.Ob, in welcher Höhe und zeitlichen Verteilung die in den (synthetischen) Szenarien verwendeten Niederschlags- und Temperaturänderungen eintreten werden, kann nur die Zukunft zeigen. Eine Abschätzung, wie sich die Abflußverhältnisse und insbesondere die mittleren Durchflüsse der Untersuchungsgebiete bei möglichen Änderungen entwickeln würden, kann jedoch heute schon vorgenommen werden. Simulationen auf Szenariogrundlagen sind ein Weg, unbekannte zukünftige Randbedingungen sowie regionale Auswirkungen möglicher Änderungen des Klimasystems ausschnittsweise abzuschätzen und entsprechende Risikominderungsstrategien zu entwickeln. Jegliche Modellierung und Simulation natürlicher Systeme ist jedoch mit beträchtlichen Unsicherheiten verknüpft. Vergleichsweise große Unsicherheiten sind mit der zukünftigen Entwicklung des sozioökonomischen Systems und der Komplexität des Klimasystems verbunden. Weiterhin haben Unsicherheiten der einzelnen Modellbausteine der Modellkette Emissionsszenarien/Gaszyklusmodelle - Globale Zirkulationsmodelle/Regionalisierung - hydrologisches Modell, die eine Kaskade der Unsicherheiten ergeben, neben Datenunsicherheiten bei der Erfassung hydrometeorologischer Meßgrößen einen erheblichen Einfluß auf die Vertrauenswürdigkeit der Simulationsergebnisse, die als ein dargestellter Wert eines Ergebnisbandes zu interpretieren sind.Der Einsatz (1) robuster hydrologischer Modelle, die insbesondere temperaturbeeinflußte Prozesse adäquat beschreiben,(2) die Verwendung langer Zeitreihen (wenigsten 30 Jahre) von Meßwerten und(3) die gleichzeitige vergleichende Betrachtung von Klimaszenarien, die auf unterschiedlichen GCMs beruhen (und wenn möglich, verschiedene Emissionsszenarien berücksichtigen),sollte aus Gründen der wissenschaftlichen Sorgfalt, aber auch der besseren Vergleichbarkeit der Ergebnisse von Regionalstudien im noch jungen Forschungsfeld der Klimafolgenforschung beachtet werden.
In den letzten Jahren wurden relativ komplexe Erosionsmodelle entwickelt, deren Teilprozesse immer mehr auf physikalisch begründeten Ansätzen beruhen. Damit verbunden ist eine höhere Anzahl aktueller Eingangsparameter, deren Bestimmung im Feld arbeits- und kostenaufwendig ist. Zudem werden die Parameter punktuell, also an bestimmten Stellen und nicht flächenhaft wie bei der Fernerkundung, erfasst. Im Rahmen dieser Arbeit wird gezeigt, wie Satellitendaten als relativ kostengünstige Ergänzung oder Alternative zur konventionellen Parametererhebung genutzt werden können. Dazu werden beispielhaft der Blattflächenindex (LAI) und der Bedeckungsgrad für das physikalisch begründete Erosionsmodell EROSION 3D abgeleitet. Im Mittelpunkt des Interesses steht dabei das Aufzeigen von existierenden Methoden, die die Basis für eine operationelle Bereitstellung solcher Größen nicht nur für Erosions- sondern allgemein für Prozessmodelle darstellen. Als Untersuchungsgebiet dient das primär landwirtschaftlich genutzte Einzugsgebiet des Mehltheuer Baches, das sich im Sächsischen Lößgefilde befindet und für das Simulationsrechnungen mit konventionell erhobenen Eingangsparametern für 29 Niederschlagsereignisse im Jahr 1999 vorliegen [MICHAEL et al. 2000]. Die Fernerkundungsdatengrundlage bilden Landsat-5-TM-Daten vom 13.03.1999, 30.04.1999 und 19.07.1999. Da die Vegetationsparameter für alle Niederschlagsereignisse vorliegen sollen, werden sie basierend auf der Entwicklung des LAI zeitlich interpoliert. Dazu erfolgt zunächst die Ableitung des LAI für alle vorhandenen Fruchtarten nach den semi-empirischen Modellen von CLEVERS [1986] und BARET & GUYOT [1991] mit aus der Literatur entnommenen Koeffizienten. Des Weiteren wird eine Methode untersucht, nach der die Koeffizienten für das Clevers-Modell aus den TM-Daten und einem vereinfachten Wachstumsmodell bestimmt werden. Der Bedeckungsgrad wird nach ROSS [1981] aus dem LAI ermittelt. Die zeitliche Interpolation des LAI wird durch die schlagbezogene Anpassung eines vereinfachten Wachstumsmodells umgesetzt, das dem hydrologischen Modell SWIM [KRYSANOVA et al. 1999] entstammt und in das durchschnittliche Tagestemperaturen eingehen. Mit den genannten Methoden bleiben abgestorbene Pflanzenteile unberücksichtigt. Im Vergleich zur konventionellen terrestrischen Parametererhebung ermöglichen sie eine differenziertere Abbildung räumlicher Variabilitäten und des zeitlichen Verlaufes der Vegetationsparameter. Die Simulationsrechnungen werden sowohl mit den direkten Bedeckungsgraden aus den TM-Daten (pixelbezogen) als auch mit den zeitlich interpolierten Bedeckungsgraden für alle Ereignisse (schlagbezogen) durchgeführt. Bei beiden Vorgehensweisen wird im Vergleich zur bisherigen Abschätzung eine Verbesserung der räumlichen Verteilung der Parameter und somit eine räumliche Umverteilung von Erosions- und Depositionsflächen erreicht. Für die im Untersuchungsgebiet vorliegende räumliche Heterogenität (z. B. Schlaggröße) bieten Landsat-TM-Daten eine ausreichend genaue räumliche Auflösung. Damit wird nachgewiesen, dass die satellitengestützte Fernerkundung im Rahmen dieser Untersuchungen sinnvoll einsetzbar ist. Für eine operationelle Bereitstellung der Parameter mit einem vertretbaren Aufwand ist es erforderlich, die Methoden weiter zu validieren und möglichst weitestgehend zu automatisieren.
An einigen CT-Modellkomplexen in verschiedenen Lösungsmitteln und bei Temperaturen von 113-300 K sollte der Einfluß der Umgebung auf die Form und Lage der Absorption von CT-Komplexen unterschiedlicher Bindungsfestigkeit untersucht werden.
Dazu wurden bekannte Bandenprofilfunktionen auf ihre Anwendbar-keit geprüft. Da eine optimale Anpassung nicht möglich war, wurde eine neue Profilfunktion entwickelt, die eine bessere Beschreibung ergab.
Nach der Bestimmung der Gleichgewichtskonstante und des Extink-tionskoeffizienten konnte mit der Profilfläche das Übergangsmoment berechnet werden.
Die Lösungsmittelabhängigkeit wurde bei verschiedenen Brechzahlen und Dielektrizitätskonstanten untersucht.
Für feste Komplexe wurde eine spezielle Präparationstechnik gewählt. Die beobachteten Feinstrukturen und der auftretende Streuuntergrund werden diskutiert.
Gegenstand der Dissertation ist die größen- und eigenschaftsoptimierte Synthese und Charakterisierung von anorganischen Nanopartikeln in einer geeigneten Polyelektrolytmodifizierten Mikroemulsion. Das Hauptziel bildet dabei die Auswahl einer geeigneten Mikroemulsion, zur Synthese von kleinen, stabilen, reproduzierbaren Nanopartikeln mit besonderen Eigenschaften. Die vorliegende Arbeit wurde in zwei Haupteile gegliedert. Der erste Teil befasst sich mit der Einmischung von unterschiedlichen Polykationen (lineares Poly (diallyldimethylammoniumchlorid) (PDADMAC) und verzweigtes Poly (ethylenimin) (PEI)) in verschiedene, auf unterschiedlichen Tensiden (CTAB - kationisch, SDS - anionisch, SB - zwitterionisch) basierenden, Mikroemulsionssysteme. Dabei zeigt sich, dass das Einmischen der Polykationen in die Wassertröpfchen der Wasser-in-Öl (W/O) Mikroemulsion prinzipiell möglich ist. Der Einfluss der verschiedenen Polykationen auf das Phasenverhalten der W/O Mikroemulsion ist jedoch sehr unterschiedlich. In Gegenwart des kationischen Tensids führen die repulsiven Wechselwirkungen mit den Polykationen zu einer Destabilisierung des Systems, während die ausgeprägten Wechselwirkungen mit dem anionischen Tensid in einer deutlichen Stabilisierung des Systems resultieren. Für das zwitterionische Tensid führen die moderaten Wechselwirkungen mit den Polykationen zu einer partiellen Stabilisierung. Der zweite Teil der Arbeit beschäftigt sich mit dem Einsatz der unterschiedlichen, Polyelektrolyt- modifizierten Mikroemulsionen als Templatphase für die Herstellung verschiedener, anorganischer Nanopartikel. Die CTAB-basierte Mikroemulsion erweist sich dabei als ungeeignet für die Herstellung von CdS Nanopartikeln, da zum einen nur eine geringe Toleranz gegenüber den Reaktanden vorhanden ist (Destabilisierungseffekt) und zum anderen das Partikelwachstum durch den Polyelektrolyt-Tensid-Film nicht ausreichend begrenzt wird. Zudem zeigt sich, dass eine Abtrennung der Partikel aus der Mikroemulsion nicht möglich ist. Die SDS-basierten Mikroemulsionen, erweisen sich als geeignete Templatphase zur Synthese kleiner anorganischer Nanopartikel (3 – 20 nm). Sowohl CdS Quantum Dots, als auch Gold Nanopartikel konnten erfolgreich in der Mikroemulsion synthetisiert werden, wobei das verzweigte PEI einen interessanten Templat-Effekt in der Mikroemulsion hervorruft. Als deutlicher Nachteil der SDS-basierten Mikroemulsionen offenbaren sich die starken Wechselwirkungen zwischen dem Tensid und den Polyelektrolyten während der Aufarbeitung der Nanopartikel aus der Mikroemulsion. Dabei erweist sich die Polyelektrolyt-Tensid-Komplexbildung als hinderlich für die Redispergierung der CdS Quantum Dots in Wasser, so dass Partikelaggregation einsetzt. Die SB-basierten Mikroemulsionen erweisen sich als günstige Templatphase für die Bildung von größen- und eigenschaftenoptimierten Nanopartikeln (< 4 nm), wobei insbesondere eine Modifizierung mit PEI als ideal betrachtet werden kann. In Gegenwart des verzweigten PEI gelang es erstmals ultrakleine, fluoreszierende Gold Cluster (< 2 nm) in einer SB-basierten Mikroemulsion als Templatphase herzustellen. Als besonderer Vorteil der SB-basierten Mikroemulsion zeigen sich die moderaten Wechselwirkungen zwischen dem zwitterionischen Tensid und den Polyelektrolyten, welche eine anschließende Abtrennung der Partikel aus der Mikroemulsion unter Erhalt der Größe und ihrer optischen Eigenschaften ermöglichen. In der redispergierten wässrigen Lösung gelang somit eine Auftrennung der PEI-modifizierten Partikel mit Hilfe der asymmetrischer Fluss Feldflussfraktionierung (aF FFF). Die gebildeten Nanopartikel zeigen interessante optische Eigenschaften und können zum Beispiel erfolgreich zur Modifizierung von Biosensoren eingesetzt werden.
Abzug unter Beobachtung
(2022)
Mehr als vier Jahrzehnte lang beobachteten die Streitkräfte und Militärnachrichtendienste der NATO-Staaten die sowjetischen Truppen in der DDR. Hierfür übernahm in der Bundesrepublik Deutschland der Bundesnachrichtendienst (BND) die militärische Auslandsaufklärung unter Anwendung nachrichtendienstlicher Mittel und Methoden. Die Bundeswehr betrieb dagegen taktische Fernmelde- und elektronische Aufklärung und hörte vor allem den Funkverkehr der „Gruppe der sowjetischen Streitkräfte in Deutschland“ (GSSD) ab. Mit der Aufstellung einer zentralen Dienststelle für das militärische Nachrichtenwesen, dem Amt für Nachrichtenwesen der Bundeswehr, bündelte und erweiterte zugleich das Bundesministerium für Verteidigung in den 1980er Jahren seine analytischen Kapazitäten. Das Monopol des BND in der militärischen Auslandsaufklärung wurde von der Bundeswehr dadurch zunehmend infrage gestellt.
Nach der deutschen Wiedervereinigung am 3. Oktober 1990 befanden sich immer noch mehr als 300.000 sowjetische Soldaten auf deutschem Territorium. Die 1989 in Westgruppe der Truppen (WGT) umbenannte GSSD sollte – so der Zwei-plus-Vier-Vertrag – bis 1994 vollständig abziehen. Der Vertrag verbot auch den drei Westmächten, in den neuen Bundesländern militärisch tätig zu sein. Die für die Militäraufklärung bis dahin unverzichtbaren Militärverbindungsmissionen der Westmächte mussten ihre Dienste einstellen. Doch was geschah mit diesem „alliierten Erbe“? Wer übernahm auf deutscher Seite die Aufklärung der sowjetischen Truppen und wer kontrollierte den Truppenabzug?
Die Studie untersucht die Rolle von Bundeswehr und BND beim Abzug der WGT zwischen 1990 und 1994 und fragt dabei nach Kooperation und Konkurrenz zwischen Streitkräften und Nachrichtendiensten. Welche militärischen und nachrichtendienstlichen Mittel und Fähigkeiten stellte die Bundesregierung zur Bewältigung des Truppenabzugs zur Verfügung, nachdem die westlichen Militärverbindungsmissionen aufgelöst wurden? Wie veränderten sich die Anforderungen an die militärische Auslandsaufklärung des BND? Inwieweit setzten sich Konkurrenz und Kooperation von Bundeswehr und BNDbeim Truppenabzug fort? Welche Rolle spielten dabei die einstigen Westmächte? Die Arbeit versteht sich nicht nur als Beitrag zur Militärgeschichte, sondern auch zur deutschen Nachrichtendienstgeschichte.
Die landesgeschichtliche Forschung hat den Werdegang des märkischen Zweiges der Familie von Trott und seiner einzelnen Mitglieder bisher weitestgehend ignoriert. Mit der nun vorliegenden Arbeit soll der defizitären Informationslage abgeholfen und vor allem die Etablierung des Geschlechts in brandenburgischen Landen in den Fokus gerückt werden. Woher kamen dessen frühen Vertreter, wann und wo konnten sie in der Mark Fuß fassen? Welche reichs- und territorialpolitischen Prozesse liefen zeitgleich ab, und wie beeinflussten diese eventuell den Werdegang dieser Familie? Konnte die Familie im Gegenzug eine Einflussnahme auf die Geschicke der Reichs- und Territorialpolitik entwickeln? Welche Spuren hinterließ sie in der märkischen Region?
Während eines umfangreichen Literatur- und Quellenstudiums kristallisierte sich bei dem Versuch, diese Fragen eingehend zu beantworten, die Persönlichkeit Adam von Trott des Älteren († 1564) heraus. Um das Jahr 1500 in der Landgrafschaft Hessen geboren, führten ihn sein Ehrgeiz und seine Zielstrebigkeit in den wechselhaften geschichtlichen Zeitläufen der Reformation bald an den Hof des brandenburgischen Kurfürsten Joachim II., wo er eine nahezu beispiellose Karriere absolvierte. Nebenher akkumulierte er durch die Übernahme weitläufiger Ländereien der säkularisierten Mönchszisterze Himmelpfort enormen Erblehnsbesitz in der Uckermark, dessen Konsolidierung sich die nachfolgende Generation der märkischen Trott verschrieb. Welche Schwierigkeiten und Fährnisse Adam und seine Nachkommen dabei zu bewältigen hatten, möchte der vorliegende Band klären.
In dieser Arbeit wurden zwei Themenbereiche bearbeitet: 1. Ellipsometrie an Adsorpionsschichten niedermolekularer Tenside an der Wasser/Luft-Grenzfläche (Ellipsometrie ist geeignet, adsorbierte Mengen von nicht- und zwitterionischen Tensiden zu messen, bei ionischen werden zusätzlich die Gegenionen mit erfaßt; Ellipsometrie mißt sich ändernde Gegenionenverteilung). 2. Ellipsometrische Untersuchung von endadsorbierten Polymerbürsten an der Wasser/Öl-Grenzfläche (Ellipsometrie ist nicht in der Lage, verschiedene Segmentkonzentrationsprofile innerhalb der Bürste aufzulösen, ist aber sehr wohl geeignet, Skalengesetze für Dicken und Drücke in Abhängigkeit von Ankerdichte und Kettenlänge der Polymere zu überprüfen; für in Heptan gequollene Poly-isobuten-Bürsten konnte gezeigt werden, daß sie sich entsprechend den theoretischen Vorhersagen für Bürsten in einem theta-Lösungsmittel verhalten)
Adsorptive Eigenschaften von Bodensubstraten in Abhängigkeit vom anthropogenen Überprägungsgrad
(1996)
NutzerInnen von gewalthaltigen Medien geben einerseits oftmals zu, dass sie fiktionale, gewalthaltige Medien konsumieren, behaupten jedoch gleichzeitig, dass dies nicht ihr Verhalten außerhalb des Medienkontexts beeinflusst. Sie argumentieren, dass sie leicht zwischen Dingen, die im fiktionalen Kontext und Dingen, die in der Realität gelernt wurden, unterscheiden können. Im Kontrast zu diesen Aussagen zeigen Metanalysen Effektstärken im mittleren Bereich für den Zusammenhang zwischen Gewaltmedienkonsum und aggressivem Verhalten. Diese Ergebnisse können nur erklärt werden, wenn MediennutzerInnen gewalthaltige Lernerfahrungen auch außerhalb des Medienkontexts anwenden. Ein Prozess, der Lernerfahrungen innerhalb des Medienkontexts mit dem Verhalten in der realen Welt verknüpft, ist Desensibilisierung, die oftmals eine Reduktion des negativen Affektes gegenüber Gewalt definiert ist. Zur Untersuchung des Desensibilisierungsprozesses wurden vier Experimente durchgeführt. Die erste in dieser Arbeit untersuchte Hypothese war, dass je häufiger Personen Gewaltmedien konsumieren, desto weniger negativen Affekt zeigen sie gegenüber Bildern mit realer Gewalt. Jedoch wurde angenommen, dass diese Bewertung auf Darstellungen von realer Gewalt beschränkt ist und nicht bei Bildern ohne Gewaltbezug, die einen negativen Affekt auslösen, zu finden ist. Die zweite Hypothese bezog sich auf den Affekt während des Konsums von Mediengewalt. Hier wurde angenommen, dass besonders Personen, die Freude an Gewalt in den Medien empfinden weniger negativen Affekt gegenüber realen Gewaltdarstellungen zeigen. Die letzte Hypothese beschäftigte sich mit kognitiver Desensibilisierung und sagte vorher, dass Gewaltmedienkonsum zu einem Transfer von Reaktionen, die normalerweise gegenüber gewalthaltigen Reizen gezeigt werden, auf ursprünglich neutrale Reize führt. Das erste Experiment (N = 57) untersuchte, ob die habituelle Nutzung von gewalthaltigen Medien den selbstberichteten Affekt (Valenz und Aktivierung) gegenüber Darstellungen von realer Gewalt und nichtgewalthaltigen Darstellungen, die negativen Affekt auslösen, vorhersagt. Die habituelle Nutzung von gewalthaltigen Medien sagte weniger negative Valenz und weniger allgemeine Aktivierung gegenüber gewalthalten und nichtgewalthaltigen Bildern vorher. Das zweite Experiment (N = 103) untersuchte auch die Beziehung zwischen habituellem Gewaltmedienkonsum und den affektiven Reaktionen gegenüber Bildern realer Gewalt und negativen affektauslösenden Bildern. Als weiterer Prädiktor wurde der Affekt beim Betrachten von gewalthaltigen Medien hinzugefügt. Der Affekt gegenüber den Bildern wurde zusätzlich durch psychophysiologische Maße (Valenz: C: Supercilii; Aktivierung: Hautleitreaktion) erhoben. Wie zuvor sagte habitueller Gewaltmedienkonsum weniger selbstberichte Erregung und weniger negative Valenz für die gewalthaltigen und die negativen, gewalthaltfreien Bilder vorher. Die physiologischen Maßen replizierten dieses Ergebnis. Jedoch zeigte sich ein anderes Muster für den Affekt beim Konsum von Gewalt in den Medien. Personen, die Gewalt in den Medien stärker erfreut, zeigen eine Reduktion der Responsivität gegenüber Gewalt auf allen vier Maßen. Weiterhin war bei drei dieser vier Maße (selbstberichte Valenz, Aktivität des C. Supercilii und Hautleitreaktion) dieser Zusammenhang auf die gewalthaltigen Bilder beschränkt, mit keinem oder nur einem kleinen Effekt auf die negativen, aber nichtgewalthaltigen Bilder. Das dritte Experiment (N = 73) untersuchte den Affekt während die Teilnehmer ein Computerspiel spielten. Das Spiel wurde eigens für dieses Experiment programmiert, sodass einzelne Handlungen im Spiel mit der Aktivität des C. Supercilii, dem Indikator für negativen Affekt, in Bezug gesetzt werden konnten. Die Analyse des C. Supercilii zeigte, dass wiederholtes Durchführen von aggressiven Spielzügen zu einem Rückgang von negativen Affekt führte, der die aggressiven Spielhandlungen begleitete. Der negative Affekt während gewalthaltiger Spielzüge wiederum sagte die affektive Reaktion gegenüber Darstellungen von gewalthaltigen Bildern vorher, nicht jedoch gegenüber den negativen Bildern. Das vierte Experiment (N = 77) untersuchte kognitive Desensibilisierung, die die Entwicklung von Verknüpfungen zwischen neutralen und aggressiven Kognitionen beinhaltete. Die Teilnehmer spielten einen Ego-Shooter entweder auf einem Schiff- oder einem Stadtlevel. Die Beziehung zwischen den neutralen Konstrukten (Schiff/Stadt) und den aggressiven Kognitionen wurde mit einer lexikalischen Entscheidungsaufgabe gemessen. Das Spielen im Schiff-/Stadt-Level führte zu einer kürzen Reaktionszeit für aggressive Wörter, wenn sie einem Schiff- bzw. Stadtprime folgten. Dies zeigte, dass die im Spiel enthaltenen neutralen Konzepte mit aggressiven Knoten verknüpft werden. Die Ergebnisse dieser vier Experimente wurden diskutiert im Rahmen eines lerntheoretischen Ansatzes um Desensibilisierung zu konzeptualisieren.
Die Arbeit beschreibt die Analyse von Beobachtungen zweier Sonnenflecken in zweidimensionaler Spektro-Polarimetrie. Die Daten wurden mit dem Fabry-Pérot-Interferometer der Universität Göttingen am Vakuum-Turm-Teleskop auf Teneriffa erfasst. Von der aktiven Region NOAA 9516 wurde der volle Stokes-Vektor des polarisierten Lichts in der Absorptionslinie bei 630,249 nm in Einzelaufnahmen beobachtet, und von der aktiven Region NOAA 9036 wurde bei 617,3 nm Wellenlänge eine 90-minütige Zeitserie des zirkular polarisierten Lichts aufgezeichnet. Aus den reduzierten Daten werden Ergebniswerte für Intensität, Geschwindigkeit in Beobachtungsrichtung, magnetische Feldstärke sowie verschiedene weitere Plasmaparameter abgeleitet. Mehrere Ansätze zur Inversion solarer Modellatmosphären werden angewendet und verglichen. Die teilweise erheblichen Fehlereinflüsse werden ausführlich diskutiert. Das Frequenzverhalten der Ergebnisse und Abhängigkeiten nach Ort und Zeit werden mit Hilfe der Fourier- und Wavelet-Transformation weiter analysiert. Als Resultat lässt sich die Existenz eines hochfrequenten Bandes für Geschwindigkeitsoszillationen mit einer zentralen Frequenz von 75 Sekunden (13 mHz) bestätigen. In größeren photosphärischen Höhen von etwa 500 km entstammt die Mehrheit der damit zusammenhängenden Schockwellen den dunklen Anteilen der Granulen, im Unterschied zu anderen Frequenzbereichen. Die 75-Sekunden-Oszillationen werden ebenfalls in der aktiven Region beobachtet, vor allem in der Lichtbrücke. In den identifizierten Bändern oszillatorischer Power der Geschwindigkeit sind in einer dunklen, penumbralen Struktur sowie in der Lichtbrücke ausgeprägte Strukturen erkennbar, die sich mit einer Horizontalgeschwindigkeit von 5-8 km/s in die ruhige Sonne bewegen. Diese zeigen einen deutlichen Anstieg der Power, vor allem im 5-Minuten-Band, und stehen möglicherweise in Zusammenhang mit dem Phänomen der „Evershed-clouds“. Eingeschränkt durch ein sehr geringes Signal-Rausch-Verhältnis und hohe Fehlereinflüsse werden auch Magnetfeldvariationen mit einer Periode von sechs Minuten am Übergang von Umbra zu Penumbra in der Nähe einer Lichtbrücke beobachtet. Um die beschriebenen Resultate zu erzielen, wurden bestehende Visualisierungsverfahren der Frequenzanalyse verbessert oder neu entwickelt, insbesondere für Ergebnisse der Wavelet-Transformation.
Aktives kommunales Debt Management : Wege zu mehr Effizienz bei der kommunalen Fremdfinanzierung
(2008)
Zellbasierte heterologe Expressionssysteme bieten ein einfaches und schnelles Verfahren, um neue Süßstoffe oder Süßverstärker zu finden. Unter Verwendung eines solchen Testsystems, konnte ich in Zusammenarbeit mit der Symrise AG, Holzminden und dem Institut für Pflanzenbiochemie in Halle/Saale die vietnamesische Pflanze Mycetia balansae als Quelle eines neuen Süßstoffs identifizieren. Deren Hauptkomponenten, genannt Balansine, aktivieren spezifisch den humanen Süßrezeptor. Chimäre Rezeptoren zeigten, dass die amino-terminalen Domänen der Süßrezeptoruntereinheiten, welche ein Großteil der Liganden des Süßrezeptors binden, für dessen Aktivierung durch Balansin A nicht notwendig sind.
Voraussetzung für die Anwendung zellbasierter Testsysteme zum Auffinden neuer Süßstoffe ist jedoch, dass süße Substanzen gesichert identifiziert werden, während nicht süße Substanzen zuverlässig keine Rezeptoraktivierung aufweisen. Während in HEK293 TAS1R2 TAS1R3To Galpha15i3-Zellen Süßrezeptoraktivierung gegenüber nicht süß schmeckenden Substanzen beobachtet wurde, konnte mit den HEK293PEAKrapid Galpha15-Zellen ein zuverlässiges Testsystem identifiziert, welches den Süßgeschmack der untersuchten Substanzen widerspiegelte.
Es fanden sich keine Hinweise, dass akzessorische Proteine oder verwandte Rezeptoren des Süßrezeptors das unterschiedliche Verhalten der Zellen verursachen. Es konnte gezeigt werden, dass die Verwendung unterschiedlicher G-Proteine die Signalamplituden des Süßrezeptors beeinflusst, die Unterschiede zwischen den Zellsystemen jedoch nicht vollständig erklärt. Keine der untersuchten Galpha-Proteinchimären spiegelte die intrinsische Süße der Substanzen wider.
Wenn auch nicht ursächlich für die Diskrepanz zwischen Süßrezeptoraktivierung in vitro und Süßgeschmack in vivo, so weisen die Ergebnisse dieser Arbeit auf eine Interaktion der Süßrezeptoruntereinheiten mit dem humanen Calcium-sensing Rezeptor hin. Vanillin und Ethylvanillin konnten als neue Agonisten des Calcium-sensing Rezeptors identifiziert werden.
Wie die vorliegende Arbeit zeigt, können sich kleine Unterschiede im Zellhintergrund deutlich auf die Funktionsweise heterolog exprimierter Rezeptoren auswirken. Dies zeigt wie wichtig die Wahl der Zellen für solche Screeningsysteme ist.
"Kinderwelt ist Bewegungswelt" (Schmidt, 1997, S. 156, zitiert nach Schmidt, Hartmann-Tews & Brettschneider, 2003, S. 31). Das kindliche Bewegungsverhalten hat sich bereits im Grundschulalter verändert, so dass sich Bewegungsaktivitäten von Kindern erheblich unterscheiden und keineswegs mehr verallgemeinert werden können. Richtet man den Fokus auf die Frage „Wie bewegt sind unsere Kinder?“ so scheint diese von den Medien bereits beantwortet zu sein, da dort von ansteigendem Bewegungsmangel der heutigen Kinder gegenüber früheren Generationen berichtet wird. Wenn es in den Diskussionen um den Gesundheitszustand unserer Kinder geht, nimmt die körperlich-sportliche Aktivität eine entscheidende Rolle ein. Bewegungsmangel ist hierbei ein zentraler Begriff der in der Öffentlichkeit diskutiert wird. Bei der Betrachtung der einzelnen Studien fällt auf, dass deutliche Defizite in der Messung der körperlich-sportlichen Aktivität bestehen. Zentraler Kritikpunkt in den meisten Studien ist die subjektive Erfassung der körperlich-sportlichen Aktivität. Ein Großteil bisheriger Untersuchungen zum Bewegungsverhalten basiert auf Beobachtungen, Befragungen oder Bewegungstagebüchern. Diese liefern ausschließlich zum Teil subjektive Einschätzungen der Kinder oder Eltern über die tatsächliche Bewegungszeit und -intensität. Das objektive Erfassen der Aktivität bzw. Inaktivität ist zwar seit einigen Jahren zentraler Gegenstand vieler Studien, dennoch gilt es, dieses noch sachkundiger zu lösen, um subjektive und objektive Daten zu vergleichen. Um dem Bewegungsmangel der heutigen Kinder entgegenzuwirken, sind empirisch abgesicherte Erkenntnisse über die Bedingungsfaktoren und die Folgen des veränderten Bewegungsverhaltens dringend nötig. Die Quer- und Längsschnittuntersuchung umfasst die Bereiche Anthropometrie, die Erfassung der körperlich-sportlichen Aktivität und die Herzfrequenzmessung über 24h. Für die Studie konnten 106 Jungen und Mädchen im Zeitraum von Januar 2007 bis April 2009 rekrutiert und überprüft werden. Die physiologischen Parameter wurden mit Hilfe des ACTIHEART-Messsytems aufgezeichnet und berechnet. Die Ergebnisse zur körperlich-sportlichen Aktivität wurden in die Untersuchungsabschnitte Schulzeit gesamt, Pause, Sportunterricht, Nachmittag und 24h unterteilt. Durch das Messsystem werden die Bewegungsaktivität und die Herzfrequenz synchron aufgezeichnet. Das System nimmt die Beschleunigungswerte des Körpers auf und speichert sie im frei wählbaren Zeitintervall, Short oder Long Term, in Form von „activity counts“ ab. Das Messsytem berechnet weiterhin die Intensität körperlicher Aktivität.
Im Bereich der medizinischen Diagnostik spielen DNA-Chips eine immer wichtigere Rolle. Dabei werden Glas- oder Silikon-Oberflächen mit Tausenden von einzelsträngigen DNA-Fragmenten, sog. Sonden, bestückt, die mit den passenden DNA-Fragmenten in der zugefügten Patientenprobe verschmelzen. Die Auswertung solcher Messungen liefert die Diagnose für Krankheiten wie z.B. Krebs, Alzheimer oder für den Nachweis pathogener Erreger. Durch fortschreitende Miniaturisierung dieser Meßsysteme können bis zu 40.000 Genfragmente des Menschen in einer einzigen Messung analysiert werden. Neben den DNA-Fragmenten können Bio-Chips auch für andere biologische Komponenten wie Antikörper und Proteine eingesetzt werden, wobei bei letzteren neben der Bindung auch die Aktivität ein wichtiger Diagnoseparamter ist. Am Fraunhofer-Institut für medizinische Technik und am Lehrstuhl für Analytische Biochemie der Universität Potsdam wurden im Rahmen einer Doktorarbeit Methoden entwickelt, die es ermöglichen auf nukleinsäuremodifizierten Sensoroberflächen die Aktivität von Proteinen zu messen. Es wurden Nukleinsäuren auf Oberflächen optischer Sensoren verankert. Diese fungierten als Rezeptor für die Proteine sowie auch als Substrat für Restriktionsenzyme, die Nukleinsäuren schneiden und Polymerasen, die Nukleinsäuren synthetisieren und verlängern können. Seine Anwendung fand diese Messmethode in der Messung der Aktivität des Proteins Telomerase, das in 90% aller Tumore erhöhte Aktivität gegenüber gesunden Zellen aufweist. Die Vorteile dieses neuen Assays gegenüber älteren Methoden liegt im Verzicht auf radioaktiv-markierten Komponenten und einer deutlich verkürzten Analysezeit. Die Arbeit schliesst mit einem funktionsfähigen Nachweis der Telomeraseaktivität im Zellextrakt von gesunden und kranken Zellen. Der direkte Einfluß von Hemmstoffen auf die Aktivität konnte sichtbar gemacht werden, und steht daher bei der Entwicklung neuer Tumor-Diagnostika und Therapeutika zur Verfügung.
Anne-Katrin Wolf beschäftigt sich mit der Aktivlegitimation im Individualbeschwerdeverfahren der UN-Menschenrechtskonventionen. Sie gibt einerseits eine leitfadenartige Übersicht zum Zulässigkeitskriterium der Aktivlegitimation. Andererseits zeigt sie, dass die Auslegungspraxis der UN-Ausschüsse zu dessen Voraussetzungen derzeit an einigen Stellen zu eng gefasst ist, um einen effektiven Menschenrechtsschutz zu gewährleisten. Im Zentrum steht dabei die Kategorisierung der UN-Menschenrechtskonventionen anhand der jeweiligen Regelungsmaterie und die daran anknüpfende, unterschiedlich weit reichenden Beschwerdemöglichkeiten von Individuen und Kollektiven wie Verbänden oder Nichtregierungsorganisationen. Sofern eine Ausgestaltung durch die Ausschüsse selbst noch nicht erfolgt ist oder die Autorin bisher angewendeten Kriterien als defizitär bewertet, entwickelt sie Vorschläge zu einer möglichen Ausformung des Kriteriums der Aktivlegitimation in der Zusammenschau mit dem jeweiligen Schutzgehalt der Konvention.
1. Problemstellung und Relevanz des Themas Die deutsche Hochschullandschaft hat in den letzten Jahren zahlreiche Veränderungen bewältigen müssen und steht weiterhin großen Herausforderungen gegenüber, durch welche sich zunehmend wettbewerbsähnliche Merkmale in diesem Sektor verfestigen: • Umstellung auf international vergleichbare Studiengänge • Neuregelung der Studienplatzvergabe • Einführung von Studiengebühren in einigen Bundesländern • Leistungsindikatoren zur Verteilung der staatlichen Haushaltsmittel • Demographischer Wandel Eine Bildungseinrichtung besitzt mehrere Anspruchsgruppen: die Studierenden, welche Bildungsleistungen nachfragen, den Staat, der für die Leistungen zahlt, die Öffentlichkeit, die an Grundlagenforschungen interessiert ist und schließlich die Wirtschaft, die Absolventen rekrutiert (vgl. Berthold, C. 2001, S.431). Die Hochschulen befinden sich untereinander verstärkt im Wettbewerb um qualifizierte (und ggf. zahlungswillige) Studierende, um finanzielle Mittel vom Staat oder aus der Privatwirtschaft und um renommierte Wissenschaftler. Hochschulen müssen sich nun den veränderten Bedingungen anpassen, um auch weiterhin im nationalen und internationalen Wettbewerb überlebensfähig zu bleiben. Grundsätzlich kann sich hierbei an in der Privatwirtschaft erfolgreich eingesetzten Marketinginstrumenten orientiert werden. 2. Zielsetzung und Aufbau der Arbeit Nach einer Analyse der oben genannten Rahmenbedingungen, wird im ersten Teil dieser Arbeit gezeigt, welche Erkenntnisse aus dem Marketing auf Hochschulen übertragen werden können. Dabei werden sowohl strategische Fragen beleuchtet als auch die Instrumente des Marketing-Mix vorgestellt. In einer anschließenden Untersuchung wurden Faktoren bestimmt, welche sich positiv auf den Entwicklungsstand von Marketingaktivitäten an Hochschulen auswirken. Dabei konnten - beispielhaft für die Region Berlin/Brandenburg - sechs verschiedene Hochschultypen identifiziert werden. Diese weisen, in Abhängigkeit der verschiedenen Eigenschaften der jeweiligen Institutionen, einen unterschiedlichen Entwicklungsstand oder ein anderes Verständnis von Hochschulmarketing auf. Aufgrund dessen erscheinen für sie jeweils andere Marketingstrategien empfehlenswert. Die größte Rolle für den differenzierten Status quo im Hochschulmarketing an Berliner und Brandenburger Hochschulen spielt die Stärke des äußeren Drucks unter dem sich die Hochschule befindet, um ihre Auslastung und die notwendige finanzielle Ausstattung sicherzustellen. Ferner unterscheiden sich die Hochschulleitungen erheblich in ihrem Engagement und der Bereitschaft, diesen Herausforderungen mit Marketinginstrumenten zu begegnen. Trotz der gestiegenen Anzahl von Beiträgen zur Notwendigkeit der Einführung von ökonomischen Überlegungen auch im Hochschulmanagement gibt es viele Kritiker, die ein Ende der Freiheit für Forschung und Lehre prophezeien, wenn der Marketing-Gedanke verstärkt auch an Bildungseinrichtungen Einzug hält. Unumstritten ist, dass Managementansätze aus der privaten Wirtschaft nicht ohne weiteres auf eine Hochschule adaptiert werden können. Wahrscheinlich besteht jedoch die größere Gefahr für Freiheit und Erfolg von Forschung und Lehre in der Missachtung dieser aktuellen Tendenzen (vgl. Tutt 2006, S. 171)!
Die Klangeigenschaften von Musikinstrumenten werden durch das Zusammenwirken der auf ihnen anregbaren akustischen Schwingungsmoden bestimmt, welche sich wiederum aus der geometrischen Struktur des Resonators in Kombination mit den verwendeten Materialien ergeben. In dieser Arbeit wurde das Schwingungsverhalten von Streichinstrumenten durch den Einsatz minimal-invasiver piezoelektrischer Polymerfilmsensoren untersucht. Die studierten Kopplungsphänomene umfassen den sogenannten Wolfton und Schwingungstilger, die zu dessen Abschwächung verwendet werden, sowie die gegenseitige Beeinflussung von Bogen und Instrument beim Spielvorgang. An Dielektrischen Elastomeraktormembranen wurde dagegen der Einfluss der elastischen Eigenschaften des Membranmaterials auf das akustische und elektromechanische Schwingungsverhalten gezeigt. Die Dissertation gliedert sich in drei Teile, deren wesentliche Ergebnisse im Folgenden zusammengefasst werden.
In Teil I wurde die Funktionsweise eines abstimmbaren Schwingungstilgers zur Dämpfung von Wolftönen auf Streichinstrumenten untersucht. Durch Abstimmung der Resonanzfrequenz des Schwingungstilgers auf die Wolftonfrequenz kann ein Teil der Saitenschwingungen absorbiert werden, so dass die zu starke Anregung der Korpusresonanz vermieden wird, die den Wolfton verursacht. Der Schwingungstilger besteht aus einem „Wolftöter“, einem Massestück, welches auf der Nachlänge der betroffenen Saite (zwischen Steg und Saitenhalter) installiert wird. Hier wurde gezeigt, wie die Resonanzen dieses Schwingungstilgers von der Masse des Wolftöters und von dessen Position auf der Nachlänge abhängen. Aber auch die Geometrie des Wolftöters stellte sich als ausschlaggebend heraus, insbesondere bei einem nicht-rotationssymmetrischen Wolftöter: In diesem Fall entsteht – basierend auf den zu erwartenden nicht-harmonischen Moden einer massebelasteten Saite – eine zusätzliche Mode, die von der Polarisationsrichtung der Saitenschwingung abhängt.
Teil II der Dissertation befasst sich mit Elastomermembranen, die als Basis von Dielektrischen Elastomeraktoren dienen, und die wegen der Membranspannung auch akustische Resonanzen aufweisen. Die Ansprache von Elastomeraktoren hängt unter anderem von der Geschwindigkeit der elektrischen Anregung ab. Die damit zusammenhängenden viskoelastischen Eigenschaften der hier verwendeten Elastomere, Silikon und Acrylat, wurden einerseits in einer frequenzabhängigen dynamisch-mechanischen Analyse des Elastomers erfasst, andererseits auch optisch an vollständigen Aktoren selbst gemessen. Die höhere Viskosität des Acrylats, das bei tieferen Frequenzen höhere Aktuationsdehnungen als das Silikon zeigt, führt zu einer Verminderung der Dehnungen bei höheren Frequenzen, so dass über etwa 40 Hertz mit Silikon größere Aktuationsdehnungen erreicht werden. Mit den untersuchten Aktoren konnte die Gitterkonstante weicher optischer Beugungsgitter kontrolliert werden, die als zusätzlicher Film auf der Membran installiert wurden. Über eine Messung der akustischen Resonanzfrequenz von Elastomermebranen aus Acrylat in 1Abhängigkeit von ihrer Vorstreckung konnte in Verbindung mit einer Modellierung des hyperelastischen Verhaltens des Elastomers (Ogden-Modell) der Schermodul bestimmt werden.
Schließlich wird in Teil III die Untersuchung von Geigen und ihrer Streichanregung mit Hilfe minimal-invasiver piezoelektrischer Polymerfilme geschildert. Es konnten am Bogen und am Steg von Geigen – unter den beiden Füßen des Stegs – jeweils zwei Filmsensoren installiert werden. Mit den beiden Sensoren am Steg wurden Frequenzgänge von Geigen gemessen, welche eine Bestimmung der frequenzabhängigen Stegbewegung erlaubten. Diese Methode ermöglicht damit auch eine umfassende Charakterisierung der Signaturmoden in Bezug auf die Stegdynamik. Die Ergebnisse der komplementären Methoden von Impulsanregung und natürlichem Spielen der Geigen konnten dank der Sensoren verglichen werden. Für die Nutzung der Sensoren am Bogen – insbesondere für eine Messung des Bogendrucks – wurde eine Kalibrierung des Bogen-Sensor-Systems mit Hilfe einer Materialprüfmaschine durchgeführt. Bei einer Messung während des natürlichen Spielens wurde mit den Sensoren am Bogen einerseits die Übertragung der Saitenschwingung auf den Bogen festgestellt. Dabei konnten außerdem longitudinale Bogenhaarresonanzen identifiziert werden, die von der Position der Saite auf dem Bogen abhängen. Aus der Analyse dieses Phänomens konnte die longitudinale Wellengeschwindigkeit der Bogenhaare bestimmt werden, die eine wichtige Größe für die Kopplung zwischen Saite und Bogen ist. Mit Hilfe des Systems aus Sensoren an Bogen und Steg werden auf Grundlage der vorliegenden Arbeit Studien an Streichinstrumenten vorgeschlagen, in denen die Bespielbarkeit der Instrumente zu den jeweils angeregten Steg- und Bogenschwingungen in Beziehung gesetzt werden kann. Damit könnte nicht zuletzt auch die bisher nicht vollständig geklärte Rolle des Bogens für Klang und Bespielbarkeit besser beurteilt werden
Das Metabolische Syndrom stellt eine Kombination verschiedener metabolischer Anomalien in einem Individuum dar. Starkes Übergewicht gilt als maßgebende Größe in der Genese des Syndroms, welches mit einem enormen Risiko für kardiovaskuläre Erkrankungen einhergeht. Um die stark steigende Prävalenz des Metabolischen Syndroms einzudämmen, sind dringend Konzepte für die Behandlung, vor allem jedoch für die Prävention von Übergewicht erforderlich. Einen wichtigen Beitrag leisten diesbezüglich Ballaststoffe in der Ernährung. Sie tragen auf unterschiedlichen Wegen zur Gewichtskontrolle bei und beeinflussen zudem verschiedene mit dem Metabolischen Syndrom assoziierte Blutparameter. Ebenso werden protektive Effekte von Polyphenolen, welche zur Gruppe der sekundären Pflanzenstoffe zählen, beschrieben. Diese wirken u. a. auf den Glukose- sowie den Insulinhaushalt und greifen darüber hinaus in die Regulation der Fettverbrennung sowie des Energieverbrauches ein. Die Kombination beider Substanzgruppen verspricht bedeutendes gesundheitsförderndes Potential; dieses wurde gegenwärtig jedoch kaum untersucht. Carobballaststoff ist ein polyphenolreicher und vorwiegend unlöslicher Extrakt der Frucht des Johannisbrotbaumes (Ceratonia siliqua L). Bislang publizierte Studien zur physiologischen Wirksamkeit dieses Ballaststoffpräparates weisen sowohl beim Tier als auch beim Menschen bemerkenswerte hypocholesterinämische Eigenschaften nach. Inwiefern sich der Verzehr des Carobballaststoffes ebenso auf die Entwicklung von Übergewicht sowie anderen Messgrößen des Metabolischen Syndroms auswirkt, ist allerdings nicht bekannt. Die Zielstellung der Promotionsarbeit bestand darin, die postprandialen Wirkungen des Carobballaststoffverzehrs mit Hilfe einer Humanstudie aufzuzeigen. In die randomisierten, einfach verblindeten Untersuchungen im cross-over-Design wurden 20 gesunde Erwachsene im Alter zwischen 22 und 62 Jahren eingeschlossen. Unter Verwendung variierender Begleitmahlzeiten wurden die postprandialen Effekte verschiedener Mengen des Carobballaststoffes untersucht. Hierbei standen die Veränderungen der Plasmakonzentrationen von Glukose, Triglyceriden (TG), totalem und acyliertem Ghrelin sowie der Serumkonzentrationen von Insulin und nicht-veresterten Fettsäuren (NEFA) im Mittelpunkt der Betrachtungen. Der Verzehr des Carobballaststoffes in Kombination mit 200 ml Wasser und 50 g Glukose erhöhte die postprandialen Glukose- und Insulinkonzentrationen gegenüber der Glukoselösung ohne Ballaststoffzusatz. In Kombination mit 400 ml einer Flüssigmahlzeit verzehrt, senkte Carobballaststoff die postprandialen TG-, NEFA- und Ghrelin- (acyliert) Antworten. Die Untersuchung des respiratorischen Quotienten nach Zusatz von Carobballaststoff zur Flüssigmahlzeit mittels indirekter Respirationskalorimetrie bekräftigte die bereits bekannten Effekte auf den Lipidmetabolismus und wies zudem eine Steigerung der Fettverwertung unter Verminderung der Glukoseoxidation nach. Wurde Carobballaststoff schließlich in Lebensmittel eingebracht, sanken nach dem Verzehr dieser Lebensmittel erneut die postprandialen Konzentrationen an TG und NEFA. Gleichzeitig erhöhten sich die Glukose-, Insulin- sowie Ghrelin- (acyliert) Antworten. Carobballaststoff löst in Abhängigkeit von der jeweils verzehrten Begleitmatrix unterschiedliche Effekte aus. Das Präparat weist beachtliche Wirkungen auf die Blutlipide sowie den Energieverbrauch auf, hat indes ungünstige Wirkungen auf die Blutglukose, sofern er in Kombination mit einer veränderten Nährstoffmatrix aufgenommen wird. Carobballaststoff besitzt starkes gesundheitsförderndes Potential; jedoch sind weitere Studien notwendig, um seine Wirkungen sowie deren Voraussetzungen besser zu verstehen. Ferner sollten Untersuchungen über einen längeren Zeitraum vorgenommen werden, um die langfristige Relevanz der gewonnenen Ergebnisse darzulegen. Danach stellt die Anreicherung spezieller Lebensmittel mit Carobballaststoff einen geeigneten Weg dar, um von den viel versprechenden protektiven Wirkungen des Präparates zu profitieren.
Anhand einer inhaltlichen Untersuchung der französischen fünfbändigen Oktavausgabe seines Essai politique sur le royaume de la Nouvelle-Espagne (1811), unter besonderer Berücksichtigung der intertextuellen Bezüge, wird Alexander von Humboldt auf multiplen Ebenen als Denker zwischen Europa und Amerika ausgewiesen. In seinem Werk über Neuspanien durchbricht er die Inferiorisierung amerikanischer bzw. kreolischer Wissenschaftler und schafft ein Bewusstsein fernab eurozentrischer Denkmuster. Dies äußert sich unter anderem in Humboldts unvoreingenommener intertextueller Einbeziehung von Vertretern verschiedener Strömungen der Aufklärung, insbesondere des kreolischen aufklärerischen Denkens.
Algorithmen in der Justiz
(2020)
Unter welchen Bedingungen dürfen Gerichte in Deutschland digitale Anwendungen zur Entscheidungsfindung einsetzen? Das Werk zeigt die engen Grenzen und einen Lösungsweg hierfür auf. Neben rechtstheoretischen und durch die computerspezifische Arbeitsweise gesetzten Grenzen ist der durch das Grundgesetz und das Europarecht abgesteckte Rechtsrahmen zu beachten. Im Zentrum der Bearbeitung steht die Garantie der richterlichen Unabhängigkeit, die durch den Technikeinsatz nicht infrage gestellt werden darf. Zur Auflösung des daraus resultierenden Konflikts wird ein Zertifizierungsverfahren für determinierte Programme vorgeschlagen. Schließlich werden konkrete Anwendungsbeispiele beleuchtet.
Algorithmic Trading
(2011)
Die Elektronisierung der Finanzmärkte ist in den letzten Jahren weit vorangeschritten. Praktisch jede Börse verfügt über ein elektronisches Handelssystem. In diesem Kontext beschreibt der Begriff Algorithmic Trading ein Phänomen, bei dem Computerprogramme den Menschen im Wertpapierhandel ersetzen. Sie helfen dabei Investmententscheidungen zu treffen oder Transaktionen durchzuführen. Algorithmic Trading selbst ist dabei nur eine unter vielen Innovationen, welche die Entwicklung des Börsenhandels geprägt haben. Hier sind z.B. die Erfindung der Telegraphie, des Telefons, des FAX oder der elektronische Wertpapierabwicklung zu nennen. Die Frage ist heute nicht mehr, ob Computerprogramme im Börsenhandel eingesetzt werden. Sondern die Frage ist, wo die Grenze zwischen vollautomatischem Börsenhandel (durch Computer) und manuellem Börsenhandel (von Menschen) verläuft. Bei der Erforschung von Algorithmic Trading wird die Wissenschaft mit dem Problem konfrontiert, dass keinerlei Informationen über diese Computerprogramme zugänglich sind. Die Idee dieser Dissertation bestand darin, dieses Problem zu umgehen und Informationen über Algorithmic Trading indirekt aus der Analyse von (Fonds-)Renditen zu extrahieren. Johannes Gomolka untersucht daher die Forschungsfrage, ob sich Aussagen über computergesteuerten Wertpapierhandel (kurz: Algorithmic Trading) aus der Analyse von (Fonds-)Renditen ziehen lassen. Zur Beantwortung dieser Forschungsfrage formuliert der Autor eine neue Definition von Algorithmic Trading und unterscheidet mit Buy-Side und Sell-Side Algorithmic Trading zwei grundlegende Funktionen der Computerprogramme (die Entscheidungs- und die Transaktionsunterstützung). Für seine empirische Untersuchung greift Gomolka auf das Multifaktorenmodell zur Style-Analyse von Fung und Hsieh (1997) zurück. Mit Hilfe dieses Modells ist es möglich, die Zeitreihen von Fondsrenditen in interpretierbare Grundbestandteile zu zerlegen und den einzelnen Regressionsfaktoren eine inhaltliche Bedeutung zuzuordnen. Die Ergebnisse dieser Dissertation zeigen, dass man mit Hilfe der Style-Analyse Aussagen über Algorithmic Trading aus der Analyse von (Fonds-)Renditen machen kann. Die Aussagen sind jedoch keiner technischen Natur, sondern auf die Analyse von Handelsstrategien (Investment-Styles) begrenzt.
Allianzfähigkeit
(2008)
Ein empirisch belegtes Phänomen ist die steigende Anzahl strategischer Allianzen von Unternehmen, speziell in dynamischen Wettbewerbsumgebungen. Über strategische Allianzen versuchen Unternehmen, auch in einer dynamischen Wettbewerbsumwelt unter hoher Unsicherheit Wettbewerbsvorteile aufzubauen. Dabei belegen verschiedene Forschungsarbeiten, dass strategische Allianzen häufig scheitern und weisen übereinstimmend relativ niedrige Erfolgsquoten von 50% nach. Harbison und Pekár belegen zwischen Unternehmen eine hohe Varianz und identifizieren, dass einige Unternehmen bei 87% ihrer strategischen Allianzen erfolgreich sind, während andere Unternehmen nur eine Erfolgsrate von 37% aufweisen. Die Fragestellung, warum Unternehmen in dieser Hinsicht so signifikant differieren, bildet die grundlegende Motivation für die vorliegende Arbeit. Die Ursache für die hohe Varianz der Erfolgsrate von strategischen Allianzen zwischen Unternehmen, ist in den internen Prozessen und Strukturen der Unternehmen zu vermuten. Diese unternehmensinternen Prozesse und Strukturen werden mit dem Begriff Allianzfähigkeit bezeichnet. 1. Forschungsfrage Aus welchen Prozessen und Strukturen besteht Allianzfähigkeit in Unternehmen? 2. Forschungsfrage Wie entwickelt sich Allianzfähigkeit in Unternehmen? Die vermutete Kausalität zwischen Allianzfähigkeit und der Erfolgsrate bei strategischen Allianzen verweist auf einen post-positivistischen Charakter der Untersuchung. Es wird auf wissenschaftliche Literatur, aber auch auf Beiträge von Unternehmensberatungen, Nichtregierungsorganisationen und andere Quellen zurückgegriffen, wie es als Forschungsansatz im Kontext strategischer Allianzen vorgeschlagen wird. Zunächst werden im zweiten Kapitel die beiden beobachtbaren Phänomene, eine steigende Dynamik der Wettbewerbsumwelt vieler Unternehmen und die zunehmende Anzahl strategischer Allianzen, die Interdependenzen aufweisen, unter Einbeziehung der Literatur, charakterisiert. Insbesondere die Motive von Unternehmen und deren Strategien zum Eingehen strategischer Allianzen werden erläutert. Im folgenden dritten Kapitel werden die traditionellen Erklärungsansätze des strategischen Managements anhand einer empirischen Literaturanalyse skizziert. Das Ergebnis der empirischen Literaturanalyse ist die Notwendigkeit eines neuen theoretischen Zugangs, der die gestiegene Dynamik der Wettbewerbsumwelt stärker reflektiert und interne Prozesse von Unternehmen intensiver betrachtet. Mit den Beiträgen von Teece et al., Eisenhardt und Martin, scheint sich der fähigkeitsorientierte Ansatz als neue Erklärungsperspektive zu etablieren. Der junge fähigkeitsorientierte Ansatz wird als geeignet identifiziert und im vierten Kapitel ausführlich dargestellt sowie in seinen aktuellen Entwicklungen erläutert. Das vierte Kapitel bildet den theoretischen Rahmen für das folgende fünfte Kapitel, das die Charakterisierung von Allianzfähigkeit auf der Grundlage eines Literaturreviews umfasst und direkt die Forschungsfragen anhand einer Modellentwicklung adressiert. Erkennt¬nisse aus anderen theoretischen Perspektiven werden in den fähigkeitsorientierten Ansatz übertragen und in das Modell integriert. Ein Vorgehen, das in der Tradition des strategischen Managements, insbesondere der Beiträge zum fähigkeitsorientierten Ansatz, steht. Im sechsten Kapitel wird das skizzierte Modell als Grundlage verwendet, um die Entwicklung von Allianzfähigkeit empirisch anhand einer Longitudinal-Fallstudie zu untersuchen. Die Analyse von Allianzfähigkeit sollte vor dem Hintergrund einer hohen Wettbewerbsdynamik unter der Bedingung von Hyperwettbewerb (Kriterium 1) in einer Branche erfolgen, bei der strategische Allianzen eine hohe Rolle spielen (Kriterium 2). Darüber hinaus soll die Möglichkeit bestehen, Zugang zu Dokumenten, Interviewpartnern sowie Datenbanken zu erhalten (Kriterium 3). Aufgrund dieser Kriterien wurde die Börsenindustrie als Industrie und die Deutsche Börse als Unternehmen ausgewählt. Das Ziel der Fallstudie ist die Darstellung der Entwicklung der strategischen Allianzen der Deutschen Börse von 1997 bis 2007, um Rückschlüsse auf die Allianzfähigkeit des Unternehmens ziehen zu können. Da die Entwicklung der Allianzfähigkeit im Vordergrund der Fallstudie steht, wird eine Längsschnittfallstudie mit chronologischem Aufbau verwendet. Dabei wurden drei verschiedene Quellen, Experteninterviews, Datenbanken sowie Dokumente, ausgewertet.
Alte Kämpfer der NSDAP
(2018)
Als „Alte Kämpfer“ galten im Nationalsozialismus alle Personen, die bereits weit vor 1933 der NSDAP beigetreten waren. Sie wurden bislang überwiegend als soziale Randexistenzen und Verlierer der Machtergreifung beschrieben. Anja Stanciu zeigt in ihrer Studie am Beispiel der Berliner NSDAP-Stadtverordneten und –Kreisleiter nun, dass etliche Altparteimitglieder nicht nur Wegbereiter, sondern auch wichtige Mitgestalter der NS-Diktatur waren und zur lokalen NS-Funktionselite gehörten. Untersucht werden die Lebensläufe und Netzwerke dieser Männer zwischen 1926 und 1949. Dabei geht es vor allem um die Frage, wie die Karrieren der „Alten Kämpfer“ und die politische Mobilisierung der Stadtgesellschaft einander bedingten.
Die Geschichte von Amicus und Amelius wurde vom späten 11. Jahrhundert an bis über das Spätmittelalter hinaus in vielen europäischen Sprachen und unterschiedlichen Gattungen erzählt. Im Zentrum des Geschehens stehen jeweils zwei Freunde, die einander zum Verwechseln ähneln. Ihre intensive Bindung behauptet sich gegen alle anderen sozialen Anforderungen und Verhaltensregeln. Die Studie arbeitet die gemeinsame narrative Grundstruktur sowie Differenzen der mittelalterlichen Bearbeitungen heraus, wobei der Zusammenhang von Freundschaft, Gewalt und Identität im Mittelpunkt steht.
Das Ziel dieser Arbeit ist es, die Strukturen im äußeren Erdkern zu untersuchen und Rückschlüsse auf die sich daraus ergebenden Konsequenzen für geodynamische Modellvorstellungen zu ziehen. Die Untersuchung der Kernphasenkaustik B mit Hilfe einer kumulierten Amplituden-Entfernungskurve ist Gegenstand des ersten Teils. Dazu werden die absoluten Amplituden der PKP-Phasen im Entfernungsbereich von 142 ° bis 147 ° bestimmt und mit den Amplituden synthetischer Seismogramme verglichen. Als Datenmaterial dienen die Breitbandregistrierungen des Deutschen Seismologischen Re-gionalnetzes (GRSN 1 ) und des Arrays Gräfenberg (GRF). Die verwendeten Wellen-formen werden im WWSSN-SP-Frequenzbereich gefiltert. Als Datenbasis dienen vier Tiefherdbeben der Subduktionszone der Neuen Hebriden (Vanuatu Island) und vier Nuklearexplosionen, die auf dem Mururoa und Fangataufa Atoll im Südpazifik stattgefunden haben. Beide Regionen befinden sich vom Regionalnetz aus gesehen in einer Epizentraldistanz von ungefähr 145 °. Die Verwendung eines homogen instrumentierten Netzes von Detektoren und die Anwendung von Stations- und Magnitudenkorrekturen verringern den Hauptteil der Streuung bei den Amplitudenwerten. Dies gilt auch im Vergleich zu Untersuchungen von langperiodischen Amplituden im Bereich der Kernphasenkaustik (Häge, 1981). Ein weiterer Grund für die geringe Streuung ist die ausschließliche Verwendung von Ereignissen mit kurzer impulsiver Herdzeitfunktion. Erst die geringe Streuung der Amplitudenwerte ermöglicht eine Interpretation der Daten. Die theoretischen Amplitudenkurven der untersuchten Erdmodelle zeigen im Bereich der Kaustik B einen gleichartigen Kurvenverlauf. Bei allen Berechnungen wird ein einheitliches Modell für die Güte der P- und S-Wellen verwendet, das sich aus den Q-Werten der Modelle CIT112 und PREM 2 zusammensetzt. Die mit diesem Q-Modell berechneten Amplituden liegen in geringem Maße oberhalb der gemessenen Amplituden. Dies braucht nicht berücksichtigt zu werden, da die kumulierte Amplituden-Entfernungskurve anhand der Lage des Maximums auf der Entfernungsachse ausgewertet wird. Folglich wird darauf verzichtet, ein alternatives Q-Modell zu entwickeln. Hinsichtlich der Lage des Kaustikmaximums lassen sich die untersuchten Erdmodelle in zwei Kategorien einteilen. Eine Gruppe besteht aus den Modellen IASP91 und 1066B, deren Maxima bei 144.6 ° und 144.7 ° liegen. Zur zweiten Gruppe von Modellen zählen AK135, PREM und SP6 mit den Maxima bei 145.1 ° und 145.2 ° (SP6). Die gemessene Amplitudenkurve hat ihr Maximum bei 145 °. Alle Entfernungsangaben beziehen sich auf eine Herdtiefe von 200 km. Die Kaustikentfernung für einen Oberflächenherd ist jeweils um 0.454 ° größer als die angegeben Werte. Damit liegen die Maxima der Modelle AK135 und PREM nur 0.1 ° neben dem der gemessenen kumulierten Amplitudenkurve. Daher wird auf die Erstellung eines eigenen Modells verzichtet, da dieses eine unwesentlich verbesserte Amplitudenkurve aufweisen würde. Das Ergebnis der Untersuchung ist die Erstellung einer gemessenen kumulierten Amplituden-Entfernungskurve für die Kaustik B. Die Kurve legt die Position der Kaustik B für kurzperiodische Daten auf ± 0.15 ° fest und bestimmt damit, welche Erdmodelle für die Beschreibung der Amplituden im Entfernungsbereich der Kaustik B besonders geeignet sind. Die Erdmodelle AK135 und PREM, ergänzt durch ein einheitliches Q-Modell, geben den Verlauf der Amplituden am besten wieder. Da die Amplitudenkurven beider Modelle nahe beieinander liegen, sind sie als gleichwertig zu bezeichnen. Im zweiten Teil der Arbeit wird die Struktur der Übergangszone in den inneren Erdkern anhand des spektralen Abklingens der Phase PKP(BC)diff am Punkt C der Laufzeitkurve untersucht. Der physikalische Prozeß der Beugung ist für die starke Abnahme der Amplituden dieser Phase verantwortlich. Die Diffraktion beeinflußt das Abklingverhalten verschiedener Frequenzanteile des seismischen Signals auf unterschiedliche Weise. Eine Deutung des Verhaltens erfordert die Berechnung von Abklingspektren. Dabei wird die Abschwächung des PKP(BC)diff Signals für acht Frequenzen zwischen 6.4 s und 1.25 Hz ermittelt und als Spektrum dargestellt. Die Form des Abklingspektrums ist charakteristisch für die Beschaffenheit der Geschwindigkeitsstruktur direkt oberhalb der Grenze zum inneren Erdkern (GIK). Die Beben, deren Kernphasen im Regionalnetz als diffraktierte Kernphasen BCdiff registriert werden, liegen in einem Entfernungsbereich jenseits von 150 °. In dieser Distanz befinden sich die Erdbebenherde der Tonga-Fidschi-Subduktionszone, deren Breitbandaufzeichnungen verwendet werden. Die Auswertung unkorrigierter Wellenformen ergibt Abklingspektren, die mit plausiblen Erdmodellen nicht in Einklang zu bringen sind. Aus diesem Grund werden die Daten einer spektralen Stationskorrektur unterzogen, die eigens zu diesem Zweck ermittelt wird. Am Beginn der Auswertung steht eine Prüfung bekannter Erdmodelle mit unterschiedlichen Geschwindigkeitsstrukturen oberhalb der GIK. Zu den untersuchten Modellen zählen PREM, IASP91, AK135Q, PREM2, SP6, OICM2 und eine Variante des PREM. Die Untersuchung ergibt, daß Modelle, die einen verringerten Gradienten oberhalb der GIK aufweisen, eine bessere Übereinstimmung mit den gemessenen Daten zeigen als Modelle ohne diese Übergangszone. Zur Verifikation dieser These wird ein Erdmodell, das keinen verringerten Gradienten oberhalb der GIK besitzt (PREM), durch eine Reihe unterschiedlicher Geschwindigkeitsverläufe in diesem Bereich ergänzt und deren synthetische Seismogramme berechnet. Das Resultat der Untersuchung sind zwei Varianten des PREM, deren Frequenzanalyse eine gute Übereinstimmung mit den Daten zeigt. Das Abklingspektrum des Erdmodells PD47, das in einer 380 km mächtigen Schicht einen negativen Gradienten besitzt, zeigt eine große Ähnlichkeit mit den gemessenen Spektren. Dennoch kann es nicht als realistisches Modell angesehen werden, da der Punkt C in einer zu großen Entfernung liegt. Darüber hinaus müßte die zu kurze Differenzlaufzeit zwischen PKP(AB) und PKP(DF) beziehungsweise PKIKP durch eine größere Änderung der Geschwindigkeitsstruktur im inneren Kern kompensiert werden. Es wird deshalb das Modell PD27a favorisiert, das diese Nachteile nicht aufweist. PD27a besitzt eine Schicht konstanter Geschwindigkeit oberhalb der GIK mit einer Mächtigkeit von 150 km. Die Art des Geschwindigkeitsverlaufs steht im Einklang mit der geodynamischen Modellvorstellung, nach der eine Anreicherung leichter Elemente oberhalb der GIK vorliegt, die als Ursache für die Konvektion im äußeren Erdkern anzusehen ist.
Gasausströmungen, oft in der Form hoch kollimierter Jets, sind ein allgegenwärtiges Phänomen bei der Geburt neuer Sterne. Emission von stossangeregtem molekularem Wasserstoff bei Wellenlängen im nahen Infrarotbereich ist ein Merkmal ihrer Existenz und auch in eingebetteten, im Optischen obskurierten Ausströmungen generell gut zu beobachten. In dieser Arbeit werden die Resultate einer von Auswahleffekten freien, empfindlichen, grossflächigen Suche nach solchen Ausströmungen von Protosternen in der v=1-0 S(1) Linie molekularen Wasserstoffs bei einer Wellenlänge von 2.12 µm vorgestellt. Die Durchmusterung umfasst eine Fläche von etwa einem Quadratgrad in der Orion A Riesenmolekülwolke. Weitere Daten aus einem grossen Wellenlängenbereich werden benutzt, um die Quellen der Ausströmungen zu identifizieren. Das Ziel dieser Arbeit ist es, eine Stichprobe von Ausströmungen zu bekommen, die so weit wie möglich frei von Auswahleffekten ist, um die typischen Eigenschaften protostellarer Ausströmungen und deren Entwicklung festzustellen, sowie um die Rückwirkung der Ausströmungen auf die umgebende Wolke zu untersuchen. Das erste Ergebnis ist, dass Ausströmungen in Sternentstehungsgebieten tatsächlich sehr häufig sind: mehr als 70 Jet-Kandidaten werden identifiziert. Die meisten zeigen eine sehr irreguläre Morphologie anstelle regulärer oder symmetrischer Strukturen. Dies ist auf das turbulente, klumpige Medium zurückzuführen, in das sich die Jets hineinbewegen. Die Ausrichtung der Jets ist zufällig verteilt. Insbesondere gibt es keine bevorzugte Ausrichtung der Jets parallel zum grossräumigen Magnetfeld in der Wolke. Das legt nahe, dass die Rotations- und Symmetrieachse in einem protostellaren System durch zufällige, turbulente Bewegung in der Wolke bestimmt wird. Mögliche Ausströmungsquellen werden für 49 Jets identifiziert; für diese wird der Entwicklungsstand und die bolometrische Leuchtkraft abgeschätzt. Die Jetlänge und die H2 Leuchtkraft entwickeln sich gemeinsam mit der Ausströmungsquelle. Von null startend, dehnen sich die Jets schnell bis auf eine Länge von einigen Parsec aus und werden dann langsam wieder kürzer. Sie sind zuerst sehr leuchtkräftig, die H2 Helligkeit nimmt aber im Lauf der protostellaren Entwicklung ab. Die Längen- und H2 Leuchtkraftentwicklung lässt sich im Wesentlichen durch eine zuerst sehr hohe, dann niedriger werdende Massenausflussrate erklären, die auf eine zuerst sehr hohe, dann niedriger werdende Gasakkretionsrate auf den Protostern schliessen lässt (Akkretion und Ejektion sind eng verknüpft!). Die Längenabnahme der Jets erfordert eine ständig wirkende Abbremsung der Jets. Ein einfaches Modell einer simultanen Entwicklung eines Protosterns, seiner zirkumstellaren Umgebung und seiner Ausströmung (Smith 2000) kann die gemessenen H2- und bolometrischen Leuchtkräfte der Jets und ihrer Quellen reproduzieren, unter der Annahme, dass die starke Akkretionsaktivität zu Beginn der protostellaren Entwicklung mit einer überproportional hohen Massenausflussrate verbunden ist. Im Durchmusterungsgebiet sind 125 dichte Molekülwolkenkerne bekannt (Tatematsu et al. 1993). Jets (bzw. Sterne) entstehen in ruhigen Wolkenkernen, d.h. solchen mit einem niedrigen Verhältnis von interner kinetischer Energie zu gravitativer potentieller Energie; dies sind die Wolkenkerne höherer Masse. Die Wolkenkerne mit Jets haben im Mittel grössere Linienbreiten als die ohne Jets. Dies ist darauf zurückzuführen, dass sie bevorzugt in den massereicheren Wolkenkernen zu finden sind, welche generell eine grössere Linienbreite haben. Es gibt keinen Hinweis auf stärkere interne Bewegungen in Wolkenkernen mit Jets, die durch eine Wechselwirkung der Jets mit den Wolkenkernen erzeugt sein könnte. Es gibt, wie von der Theorie vorausgesagt, eine Beziehung zwischen der Linienbreite der Wolkenkerne und der H2 Leuchtkraft der Jets, wenn Jets von Klasse 0 und Klasse I Protosternen separat betrachtet werden; dabei sind Klasse 0 Jets leuchtkräftiger als Klasse I Jets, was ebenfalls auf eine zeitabhängige Akkretionsrate mit einer frühzeitigen Spitze und einem darauffolgenden Abklingen hinweist. Schliesslich wird die Rückwirkung der Jetpopulation auf eine Molekülwolke unter der Annahme strikter Vorwärtsimpulserhaltung betrachtet. Die Jets können auf der Skala einer ganzen Riesenmolekülwolke und auf den Skalen von Molekülwolkenkernen nicht genügend Impuls liefern, um die abklingende Turbulenz wieder anzuregen. Auf der mittleren Skala von molekularen Klumpen, mit einer Grösse von einigen parsec und Massen von einigen hundert Sonnenmassen liefern die Jets jedoch genügend Impuls in hinreichend kurzer Zeit, um die Turbulenz “am Leben zu erhalten” und können damit helfen, einen Klumpen gegen seinen Kollaps zu stabilisieren.
Analphabetismus und Teilhabe
(2015)
Aus bildungstheoretisch-gesellschaftskritischer Perspektive stellt sich Lernen als soziales Handeln in gesellschaftlich-vermittelten Verhältnissen – Möglichkeiten wie auch Begrenzungen – dar. Funktionaler Analphabetismus ist mit einem bundesweiten Anteil von 14% der erwerbsfähigen Bevölkerung oder 7,5 Millionen Analphabeten in Deutschland nicht nur ein bildungspolitisches und -praktisches, sondern auch ein wissenschaftlich zu untersuchendes Phänomen. Es gibt zahlreiche Untersuchungen, die sich mit dieser Thematik auseinandersetzen und Anknüpfungspunkte für die vorliegende Studie bieten. Aus der Zielgruppenforschung beispielsweise ist bekannt, dass die Hauptadressaten der Männer, der Älteren und der Bildungsfernen nicht adäquat erreicht bzw. als Teilnehmende gewonnen werden. Aus der Teilnehmendenforschung sind Abbrüche und Drop-Outs bekannt.
Warum Analphabeten im Erwachsenenalter, also nach der Aneignung vielfältigster Bewältigungsstrategien, durch das sich das Phänomen einer direkten Sichtbarkeit entzieht, dennoch beginnen das Lesen und Schreiben (wieder) zu lernen, wird bislang weder bildungs- noch lerntheoretisch untersucht. Im Rahmen der vorliegenden Erwachsenenbildungsstudie werden genau diese Lernanlässe empirisch herausgearbeitet.
Als Heuristik wird auf eine subjekttheoretische Theoriefolie rekurriert, die sich in besonderer Weise eignet Lernbegründungen im Kontext gesellschaftlich verhafteter Biografien sichtbar zu machen. Lernforschung im Begründungsmodell muss dabei auf eine Methodik zurückgreifen, die die Perspektive des Subjekts, Bedeutungszusammenhänge und typische Sinnstrukturen hervorbringen kann. Daher wird ein auf Einzelfallstudien basierendes, qualitatives Forschungsdesign gewählt, das Daten aus der Erhebung mittels problemzentrierter Interviews bereitstellt, die eine Auswertung innerhalb der Forschungsstrategie der Grounded Theory erfahren und in einer empirisch begründeten Typenbildung münden. Dieses Design ermöglicht die Rekonstruktion typischer Lernanlässe und im Ergebnis die Entwicklung einer gegenstandsbezogene Theorie mittlerer Reichweite.
Aus der vorliegenden Bedeutungs-Begründungsanalyse konnten empirisch fünf Lernbegründungstypen ausdifferenziert werden, die sich im Spannungsverhältnis von Teilhabeausrichtung und Widersprüchlichkeit bewegen und in ihrer Komplexität mittels der drei Schlüsselkategorien Bedeutungsraum, Reflexion der sozialen Eingebundenheit und Kompetenzen sowie Lernen bzw. dem Erleben der Diskrepanzerfahrung zwischen Lesen-Wollen und Lesen-Können dargestellt werden. Das Spektrum der Lernbegründungstypen reicht von teilhabesicherndem resignierten Lernen, bei dem die Sicherung des bedrohten Status quo im Vordergrund steht und die Welt als nicht gestaltbar erlebt wird, bis hin zu vielschichtigem teilhabeerweiternden Lernen, das auf die Erweiterung der eigenen Handlungsmöglichkeiten zielt und die umfangreichste Reflexion der sozialen Eingebundenheit und Kompetenzen aufweist. Funktionale Analphabeten begründen ihr Lernen und Nicht-Lernen vor dem Hintergrund ihrer sozialen Situation, ihrer Begrenzungen und Möglichkeiten: Schriftsprachlernen erhält erst im Kontext gesellschaftlicher Teilhabe und dessen Reflexion eine Bedeutung.
Mit der Einordnung der Lernbegründungen funktionaler Analphabeten in: erstens, Diskurse der Bildungsbenachteiligung durch Exklusionsprozesse; zweitens, die lerntheoretische Bedeutung von Inklusionsprozessen und drittens, den internationalen Theorieansatz transformativen Lernens durch die Integration der Reflexionskategorie, erfolgt eine Erweiterung bildungs- und lerntheoretischer Ansätze. In dieser Arbeit werden Alphabetisierungs- und Erwachsenen-bildungsforschung verbunden und in den jeweiligen Diskurs integriert. Weitere Anschluss- und Verwertungsmöglichkeiten in der Bildungsforschung wären denkbar. Die Untersuchung von Lernbegründungen im Längsschnitt beispielsweise kann Transformationsprozesse rekonstruierbar machen und somit Erträge für eine Bildungsprozessforschung liefern. Bildungspraktisch können die Lernbegründungstypen einerseits der Teilnehmergewinnung dienen, andererseits Ausgangspunkt für reflexive Lernbegleitungskonzepte sein, die Lernbegründungen zur Sprache bringen und die soziale Eingebundenheit thematisieren und damit Lernprozesse unterstützen.
Analyse der Funktion der dualen Lokalisation der 3-Mercaptopyruvat Sulfurtransferase im Menschen
(2017)
Für ein tiefergehendes Verständnis von Entwicklung und Funktion der quergestreiften Muskulatur ist eine Betrachtung der am Aufbau der Myofibrillen, den kontraktilen Organellen, beteiligten Proteine essentiell. Die vorliegende Arbeit beschäftigt sich mit Myomesin, einem Protein der sarkomeren M-Bande. Zunächst wurde die cDNA des humanen Myomesins vollständig kloniert, sequenziert und nachfolgend die komplette Größe der aminoterminalen Kopfdomäne bestimmt. Es konnte gezeigt werden, daß Myomesin in vitro mit den Domänen 1 und 12 an Myosin bindet. Die muskelspezifische Isoform der Kreatinkinase bindet an die Domänen 7 und 8. Stimulations- und Inhibitionsexperimente belegen, daß Myomesin an Serin 618 in vivo durch die Proteinkinase A phosphoryliert wird und daß diese Phosphorylierung durch Aktivierung beta2-adrenerger Rezeptoren stimulierbar ist. In Muskelgewebeproben von Patienten, die an der Hypertrophen Kardiomyopathie, einer genetisch bedingten Herzmuskelkrankheit, erkrankt sind, konnte mit einem neu hergestellten phosphorylierungsabhängigen Antikörper eine Verminderung der Menge phosphorylierten Myomesins nachgewiesen werden. Mögliche Ursachen werden diskutiert. Myomesin bildet Dimere, wie durch hefegenetische und biochemische Experimente gezeigt werden konnte. Die Dimerisierung von Myomesin könnte eine zentrale Rolle für den Einbau der Myosinfilamente in die naszierende Myofibrille haben. Anhand der gewonnenen Daten wurde ein verbessertes Modell der zentralen M-Bande erstellt.
Ziel der vorliegenden Arbeit war die Entwicklung einer SNP-Genotypisierungsmethode mit auf Mikroarrays immobilisierten PCR-Produkten. Für die Analyse wurde ein faseroptischer Affinitätssensor bzw. ein Durchfluss-Biochip-Scanner mit integrierter Fluoreszenzdetektion verwendet. An den immobilisierten Analyten (PCR-Produkten) wurde eine Fluoreszenzoligonukleotidsonde hybridisiert und anschließend die Dissoziation der Sonde im Fluss verfolgt. Die Diskriminierung von Wildtyp- und Mutanten-DNA erfolgte durch die kinetische Auswertung der Dissoziationskurven sowie durch die Analyse der Fluoreszenzintensität. Die Versuche am faseroptischen Affinitätssensor zeigten, dass DNA-DNA-Hybride sowohl von Oligonukleotiden als auch von PCR-Produkten ein typisches Dissoziationsverhalten aufweisen, wobei fehlgepaarte Hybride eine signifikant schnellere Dissoziation zeigen als perfekt passende Hybride. Dieser Geschwindigkeitsunterschied lässt sich durch den Vergleich der jeweiligen kinetischen Geschwindigkeitskonstanten kD quantitativ erfassen. Da die Kopplung des Analyten an der Chipoberfläche sowie die Hybridisierungs- und Dissoziationsparameter essentiell für die Methodenentwicklung war, wurden die Parameter für ein optimales Spotting und die Immobilisierung von PCR-Produkten ermittelt. Getestet wurden die affine Kopplung von biotinylierten PCR-Produkten an Streptavidin-, Avidin- und NeutrAvidin-Oberflächen sowie die kovalente Bindung von phosphorylierten Amplifikaten mit der EDC/Methylimidazol-Methode. Die besten Ergebnisse sowohl in Spotform und -homogenität als auch im Signal/Rausch-Verhältnis wurden an NeutrAvidin-Oberflächen erreicht. Für die Etablierung der Mikroarray-Genotypisierungsmethode durch kinetische Analyse nach einem Hybridisierungsexperiment wurden Sondenlänge, Puffersystem, Spotting-Konzentration des Analyten sowie Temperatur optimiert. Das Analysensystem erlaubte es, PCR-Produkte mit einer Konzentration von 250 ng/µl in einem HEPES-EDTA-NaCl-Puffer auf mit NeutrAvidin beschichtete Glasträger zu spotten. In den anschließenden Hybridisierungs- und Dissoziationsexperimenten bei 30 °C konnte die Diskriminierung von homocygoter Wildtyp- und homocygoter Mutanten- sowie heterocygoter DNA am Beispiel von Oligonukleotid-Hybriden erreicht werden. In einer Gruppe von 24 homocygoten Patienten wurde ein Polymorphismus im SULT1A1-Gen analysiert. Sowohl durch kinetische Auswertung als auch mit der Analyse der Fluoreszenzintensität wurde der Genotyp der Proben identifiziert. Die Ergebnisse wurden mit dem Referenzverfahren, der Restriktionschnittstellenanalyse (PCR-RFLP) validiert. Lediglich ein Genotyp wurde falsch bestimmt, die Genauigkeit lag bei 96%. In einer Gruppe von 44 Patienten wurde der Genotyp eines SNP in der Adiponectin-Promotor-Region untersucht. Nach Vergleich der Analysenergebnisse mit denen eines Referenzverfahrens konnten lediglich 14 der untersuchten Genotypen bestätigt werden. Ursache für die unzureichende Genauigkeit der Methode war vor allem das schlechte Signal/Rausch-Verhältnis. Zusammenfassend kann gesagt werden, dass das in dieser Arbeit entwickelte Analysesystem für die Genotypisierung von Einzelpunktmutationen geeignet ist, homocygote Patientenproben zuverlässig zu analysieren. Prinzipiell ist das auch bei heterocygoter DNA möglich. Da nach aktuellem Kenntnisstand eine SNP-Analysemethode an immobilisierten PCR-Produkten noch nicht veröffentlicht wurde, stellt das hier entwickelte Verfahren eine Alternative zu bisher bekannten Mikroarray-Verfahren dar. Als besonders vorteilhaft erweist sich der reverse Ansatz der Methode. Der hier vorgestellte Ansatz ist eine kostengünstigere und weniger hoch dimensionierte Lösung für Fragestellungen beispielsweise in der Ernährungswissenschaft, bei denen meist eine mittlere Anzahl Patienten auf nur einige wenige SNPs zu untersuchen ist. Wenn es gelingt, durch die Weiterentwicklung der Hardware bzw. weiterer Optimierung, eine Verbesserung des Signal/Rausch-Verhältnisses und damit die Diskriminierung von heterocygoter DNA zu erreichen, kann diese Methode zukünftig bei der Analyse von mittelgroßen Patientengruppen alternativ zu anderen Genotypisierungsmethoden verwendet werden.