Refine
Year of publication
- 2011 (2047) (remove)
Document Type
- Article (1322)
- Doctoral Thesis (289)
- Monograph/Edited Volume (165)
- Review (96)
- Postprint (67)
- Conference Proceeding (29)
- Other (21)
- Master's Thesis (15)
- Part of Periodical (13)
- Preprint (9)
- Part of a Book (8)
- Working Paper (7)
- Habilitation Thesis (3)
- Moving Images (1)
- Journal/Publication series (1)
- Report (1)
Language
Keywords
- Deutschland (17)
- Bürgerschaft (16)
- Germany (16)
- Integration (16)
- International Politics (16)
- Internationale Politik (16)
- Migration (16)
- Politische Theorie (16)
- Afghanistan (15)
- Friedens- und Konfliktforschung (14)
Institute
- Institut für Biochemie und Biologie (242)
- Institut für Physik und Astronomie (187)
- Institut für Chemie (176)
- Institut für Geowissenschaften (141)
- Institut für Romanistik (141)
- Wirtschaftswissenschaften (104)
- Department Psychologie (79)
- Sozialwissenschaften (73)
- MenschenRechtsZentrum (72)
- WeltTrends e.V. Potsdam (70)
Fundraising interdisziplinär : ein Beitrag zur Erneuerung der Kultur gemeinwohlbezogenen Gebens
(2011)
Bei der Entdeckung der Glutathionperoxidase-2 (GPx2) wurde zunächst davon ausgegangen, dass die Funktion dieses Enzyms im Kryptengrund des Colons einzig in der Reduktion von H2O2 besteht. Im Laufe der weiteren Erforschung zeigte sich, dass GPx2 auch in verschiedenen Tumorgeweben vermehrt exprimiert wird. Dabei wird diskutiert, ob die Wirkung von GPx2 im Tumor eher als pro- oder als antikarzinogen einzustufen ist. Mehrere Experimente in vitro und in vivo zeigten antiinflammatorische Eigenschaften der GPx2. Aufgrund dieser Befunde wird derzeit über weitere Funktionen der GPx2 spekuliert. In dieser Arbeit wurde die physiologische Funktion von GPx2 näher erforscht, dazu wurden Wildtyp- und GPx2-Knockout-Mäuse in Hinblick auf Veränderungen der Enzymexpression und der Colonmorphologie untersucht. Es wurden drei verschiedene Selendiäten verfüttert: selenarmes, selenadäquates und selensupplementiertes Futter. Unter physiologischen Bedingungen ist am Kryptengrund des Colons, innerhalb der proliferierenden Zone, die Mitoserate am höchsten. Der Großteil der apoptotischen Zellen ist hingegen an der Kryptenspitze vorzufinden. Durch den Knockout von GPx2 kam es zu einer signifikanten Erhöhung der Apoptoserate am Kryptengrund. Dabei war der größte Effekt auf selenarmem Futter zu verzeichnen. Hierbei wurde sogar eine Veränderung der Colonmorphologie dokumentiert, da die Verschiebung der Proliferationszone in Richtung Kryptenspitze eine Verlängerung der Krypten nach sich zog. Im Wildtyp wurden keine Apoptosen im Kryptengrund detektiert. GPx1 wird unter physiologischen Bedingungen im Gegensatz zur GPx2 in der Kryptenspitze exprimiert und ist im Selenmangel nicht mehr detektierbar. Der Knockout von GPx2 erhöhte die GPx1-Expression im Kryptengrund auf allen drei Selendiäten. Diese Überexpression von GPx1 am Kryptengrund soll vermutlich den Verlust von GPx2 an dieser Stelle kompensieren. Da jedoch dort die massive Apoptoserate detektiert wurde, kann die GPx1 nicht die komplette Funktion von GPx2 kompensieren. Diese Ergebnisse deuten darauf hin, dass die Funktion von GPx2 nicht nur in der Reduktion von H2O2 liegt. Vielmehr kann eine Rolle bei der Aufrechterhaltung der Homöostase von Zellen postuliert werden. Ein weiterer Bestandteil dieser Arbeit war die Klärung der Frage, welchen Einfluss GPx2 auf die entzündungsassoziierte Colonkarzinogenese ausübt. In dem hierfür verwendeten AOM/DSS-Model wird der karzinogene Prozess durch Entzündung vorangetrieben. Es erfolgte sowohl im Wildtyp als auch im GPx2-Knockout zum einen die Bewertung des Entzündungsstatus des Colons und zum anderen wurde die Anzahl von ACF und Tumoren verglichen. Das Colon im GPx2-Knockout war wesentlich stärker entzündet als im Wildtyp. Diese Ergebnisse bestätigen die für die GPx2 postulierte antiinflammatorische Funktion. Normalerweise führt eine Erhöhung der Mitoseanzahl zur Regeneration des entzündeten Gewebes. Jedoch beeinflusst der Verlust von GPx2 vermutlich den Ablauf der Entzündung, indem beispielsweise die Regeneration des Gewebes durch die enorm hohe Apoptoserate am Kryptengrund verlangsamt wird. Des Weiteren hatten sich im GPx2-Knockout tendenziell mehr Tumore entwickelt. Somit korrelierte die Entzündung des Colons mit der Entwicklung von Tumoren. Der Verlust von GPx2 begünstigte vermutlich sowohl die Tumorinitiation als auch die Tumorprogression. Allerdings stimulierte die Expression von GPx2 ebenfalls das Tumorwachstum. Es kann geschlussfolgert werden, dass eine adäquate GPx2-Expression vor Entzündung schützt und somit das Risiko für Colonkrebs senkt. Ob GPx2 aber insgesamt pro- oder antikarzinogen wirkt, hängt vermutlich vom Stadium des Colonkarzinogenese ab.
Daß die Rhetorik für die Literatur und Wissenschaft der Frühen Neuzeit von größter Bedeu-tung ist, gehört seit langem zum Grundbestand der Forschung. Trotzdem ist praktisch keine der großen Rhetoriken dieser Zeit in einer neuen Ausgabe oder gar Übersetzung zugänglich. Die vorliegende Ausgabe ist ein erster Schritt, dieser unbefriedigenden Situation Abhilfe zu verschaffen, indem sie Philipp Melanchthons Elementa rhetorices zum ersten Mal in einer kritischen Ausgabe und Übersetzung zur Verfügung stellt. Neben den De copia verborum ac rerum des Erasmus sind Melanchthon Elementa rhetorices wahrscheinlich das meistgedruckte Lehrbuch des 16. Jahrhunderts. 1531 zum ersten Mal erschienen und bis 1539 mehrmals überarbeitet und erweitert, erscheinen sie bis zum Ende des Jahrhunderts in über hundert Ausgaben. An zahllosen Schulen und Universitäten im protestantischen Raum war ihre Lektüre für Generationen von Schülern Pflicht, die Dichter des 17. Jahrhunderts sind mit ihr zur Schule gegangen. Die vorliegende Ausgabe ist nicht nur die erste kritische Ausgabe des Textes, sondern auch die erste vollständige Übersetzung. Die bisher unbekannten Varianten der Ausgaben 1531, 1532 und 1536 sind in einem Variantenverzeichnis erfaßt. Der teilweise schwer zugänglichen Text wird durch einen umfangreichen Kommentar, ein Nachwort und ein Glossar erschlossen. Dabei wird nicht nur der Text selbst in der Form wiedergegeben, in der er dem Leser des 16. Jahrhunderts vorlag, sondern auch der den Elementa rhetorices ursprünglich beigegebene Anhang. Dieser Anhang umfaßt neben drei Briefen von Seneca und Plinius d. J. vor allem die "Gegensätzlichen Briefe" Giovanni Picos della Mirandola und Franz Burchards, einem Schüler Melanchthons. Burchard übernimmt hier die Verteidigung der Rhetorik gegen den über fünfzig Jahre zuvor geführten, scharfen und spöttischen Angriff Picos della Mirandola, der schnell zu einer gewissen Berühmtheit gelangt war. Melanchthon hielt die Verteidigung Burchards nicht nur der Aufnahme in sein Lehrbuch für würdig, sondern verfaßte auch umfangreiche, interpretierende Marginalien zu beiden Briefen. Indem diese Marginalien von den Herausgebern der Gesamtausgabe von Melanchthons Werken nicht aufgenommen wurden, bietet die Ausgabe mit diesen Marginalien auch die erste Edition eines bisher unbekannten Textes.
Die Arbeit befasst sich theoretisch und empirisch mit der so genannten Public Service Motivation (PSM) und ihrem Zusammenhang zu anderen psychologischen Motivationstheorien. Die Public Service Motivation geht davon aus, dass öffentlich Beschäftigte unter anderem dadurch motiviert sind, dass sie in ihrer Arbeit einen Dienst am Gemeinwohl sehen. Auf Basis einer empirischen Erhebung konnte dieses Konstrukt auch für Beschäftigte in Deutschland nachgewiesen und der Einfluss soziodemographischer Variablen bestätigt werden. Darüber hinaus gibt die Arbeit erste Hinweise auf Zusammenhänge zu verschiedenen Prozesstheorien der Motivation. Empirisch zeigt sich vor allem zur Gleichheitstheorie und dem darauf aufbauenden Equity Sensitivity Construct ein starker Zusammenhang.
Multiple Imputation hat sich in den letzten Jahren als adäquate Methode zum Umgang mit fehlenden Werten erwiesen und etabliert. Das gilt zumindest für die Theorie, denn im Angesicht mangelnder anwendungsbezogener Erläuterungen und Einführungen verzichten in der Praxis viele Sozialwissenschaftler auf diese notwendige Datenaufbereitung. Trotz (oder vielleicht auch wegen) der stetig fortschreitenden Weiterentwicklung der Programme und Optionen zur Umsetzung Multipler Imputationen, sieht sich der Anwender mit zahlreichen Herausforderungen konfrontiert, für die er mitunter nur schwer Lösungsansätze findet. Die Schwierigkeiten reichen von der Analyse und Aufbereitung der Zielvariablen, über die Software-Entscheidung, die Auswahl der Prädiktoren bis hin zur Modell-Formulierung und Ergebnis-Evaluation. In diesem Beitrag wird die Funktionsweise und Anwendbarkeit Multipler Imputationen skizziert und es wird eine Herangehensweise entwickelt, die sich in der schrittweisen Umsetzung dieser Methode als nützlich erwiesen hat – auch für Einsteiger. Es werden konkrete potenzielle Schwierigkeiten angesprochen und mögliche Problemlösungen diskutiert; vor allem die jeweilige Beschaffenheit der fehlenden Werte steht hierbei im Vordergrund. Der Imputations-Prozess und alle mit ihm verbundenen Arbeitsschritte werden anhand eines Anwendungsbeispiels – der Multiplen Imputation des Gesamtvermögens reicher Haushalte – exemplarisch illustriert.
Den Krieg um Afghanistan hat der Westen verloren – wieder einmal. Die Frage des Abzugs bestimmt die außen- und sicherheitspolitische Agenda, nicht nur in Washington D.C. und Berlin. Ziel ist, das "Fiasko Afghanistan" möglichst glimpflich enden zu lassen – aber wie? Die Frage hat auch 2011 nicht an Aktualität eingebüßt. Kenner der Region und außenpolitische Experten diskutieren im vorliegenden WeltTrends Papier die Ausgangslage des Afghanistan-Komplexes und analysieren Abzugsstrategien – klar, kontrovers, pointiert.
Die Arbeit beschreibt die humanistische Reform des 'Triviums', also der grammatischen, dialektischen (logisch-argumentativen) und rhetorischen Ausbildung, wie sie sich in dem Zeitraum von 1480 bis 1540 an Schulen und Universitäten durchsetzte. Die Arbeit ist dabei sowohl historisch wie systematisch angelegt, indem sie die Lehrinhalte der jeweiligen Kunst an ausgewählten Lehrbüchern darstellt, gleichzeitig aber unter ständigem Rückbezug auf die scholastisch-mittelalterliche Tradition die humanistischen Neuerungen davon abgrenzt. Im Zentrum stehen Werke von Lorenzo Valla, Rudolf Agricola, Erasmus, Juan Luis Vives und Philipp Melanchthon. Es stellt sich dabei heraus, daß die humanistischen Neuerungen in erster Linie die Praxisbezogenheit des Triviums betreffen, erst aus dieser ergeben sich dann die inhaltlichen Neuerungen. Unter Praxisbezogenheit ist dabei sowohl die Ableitung von Grammatik, Dialektik und Rhetorik aus der Beobachtung ihrer immer schon vorgängigen Anwendung zu verstehen, als auch ihre Anwendung zum Zweck der sprachlichen, argumentativ-logischen und rhetorischen Analyse. D.h. das grammatische, dialektische und rhetorische Regelwerk wird auf deskriptivem Wege gewonnen, um wiederum in der Analyse auf die Praxis zurückgewendet zu werden. Dieser Analyse werden dabei von alltäglichen Äußerungen, politischen, religiösen oder sonstigen sachlichen Texten bis hin zu literarischen Werken alles unterzogen. In einem letzten Teil stellt die Arbeit drei solcher Analysen vor und versucht sich schließlich selbst an einer dialektisch-rhetorischen Analyse dreier dramatischer Bearbeitungen der Parabel vom verlorenen Sohn.
Öffentliche Unternehmen werden in Adäquation zum wirtschaftlichen und politischen Verständnis an Hand des Finanz- und Personalstatistikgesetzes operationalisierbar definiert und sowohl gegenüber öffentlichen Behörden als auch gegenüber privaten Unternehmen abgegrenzt. Dabei wird gezeigt, dass keine Deckungsgleichheit, aber eine stückweise Überlappung mit dem Sektor Staat besteht. Dadurch gewinnt ein Teil der öffentlichen Unternehmen Bedeutung für die Volkswirtschaftliche Gesamtrechnung, insbesondere für den öffentlichen Schuldenstand und damit für die Konvergenzkriterien im Rahmen der Wirtschafts- und Währungsunion. Die amtliche Statistik gewinnt die Daten für die Statistik öffentlicher Unternehmen in Totalerhebung aus den Jahresabschlüssen dieser Unternehmen einschließlich ihrer Gewinn und Verlustrechnung. Die Statistik öffentlicher Unternehmen übertrifft damit in ihrer Ausführlichkeit und Tiefe die meisten anderen Fachstatistiken. Dem steht der Nachteil der relativ späten Verfügbarkeit gegenüber. Der Wissenschaft steht die Statistik in Form einer formal anonymisierten Datei an Wissenschaftlerarbeitsplätzen in den Forschungsdatenzentren der Statistischen Ämter des Bundes und der Länder zur Verfügung. Der Anonymisierungsprozess bedeutet eine weitere Verzögerung der Verfügbarkeit der Daten und steht zusammen mit strengen Geheimhaltungsvorschriften in den Forschungsdatenzentren im Widerspruch zur gebotenen Transparenz und der vorgeschriebenen Offenlegung der Bilanzen im öffentlichen Sektor.
Die statistische Analyse der Ertragslage öffentlicher Unternehmen bringt Informationen über die Ertragskraft dieser Unternehmensgruppe. Die erforderlichen Kennzahlen werden den Jahresabschlussbilanzen entnommen, die die amtliche Statistik in öffentlichen Unternehmen erhebt. Zunächst werden geeigneten Kennzahlen ausgewählt und definiert, für die einzelnen Unternehmen aufbereitet sowie für die Gesamtheit öffentlicher Unternehmen und ihre Klassen aggregiert. Sie werden in ihrer Entwicklung über den Zeitraum von 1999 bis 2006 analysiert und – unter starken Vorbehalten – mit analogen Kennzahlen in der privaten Wirtschaft verglichen. Die Vorbehalte ergeben sich daraus, dass sich Ziele und Bedingungen im öffentlichen Unternehmensbereich häufig von denen der privaten Wirtschaft unterscheiden, z. B. durch die stärkere Orientierung an öffentlichen Aufgaben als an betriebswirtschaftlicher Effizienz, durch die eingeschränkte Veräußerbarkeit des Vermögens und durch das geringere Risiko einer Insolvenz. Öffentliche Unternehmen haben im Mittel wegen der Spezifik ihrer Aufgaben und politisch determinierter Preise einen geringeren Umsatz als private Unternehmen. Im Vergleich zu privaten sind öffentliche Unternehmen auch durch eine höhere Zinselastizität, die mit einem hohen Verschuldungsgrad zusammenhängt, und eine höhere Abschreibungsintensität gekennzeichnet. Die letzte ist auf das umfangreiche öffentliche Vermögen zurückzuführen. Im Großen und Ganzen unterstreicht die statistische Analyse der Ertragslage die enge Verflechtung zwischen öffentlichen Unternehmen und öffentlichen Haushalten.
This paper offers empirical evidence on the power of Sornette et al's [2001] model of bubbles and crashes regarding the German stock market between 1960 and 2009. We identify relevant time periods and describe them with the function given by Sornette et al's model. Our results show some evidence in predicting crashes with the understanding of logarithmic periodic structures that are hidden in the stock price trajectories. It was shown that for the DAX most of the relevant parameters determining the shape of the logarithmic periodic structures are lying in the expected interval researched by Sornette et al. Further more the paper implicitly shows that the point of time of former crashes can be predicted with the presented formula. We conclude that the concept of financial time series conceived as purely random objects should be generalised as to admit complexity.
The East African Plateau provides a spectacular example of geodynamic plateau uplift, active continental rifting, and associated climatic forcing. It is an integral part of the East African Rift System and has an average elevation of approximately 1,000 m. Its location coincides with a negative Bouguer gravity anomaly with a semi-circular shape, closely related to a mantle plume, which influences the Cenozoic crustal development since its impingement in Eocene-Oligocene time. The uplift of the East African Plateau, preceding volcanism, and rifting formed an important orographic barrier and tectonically controlled environment, which is profoundly influenced by climate driven processes. Its location within the equatorial realm supports recently proposed hypotheses, that topographic changes in this region must be considered as the dominant forcing factor influencing atmospheric circulation patterns and rainfall distribution. The uplift of this region has therefore often been associated with fundamental climatic and environmental changes in East Africa and adjacent regions. While the far-reaching influence of the plateau uplift is widely accepted, the timing and the magnitude of the uplift are ambiguous and are still subject to ongoing discussion. This dilemma stems from the lack of datable, geomorphically meaningful reference horizons that could record surface uplift. In order to quantify the amount of plateau uplift and to find evidence for the existence of significant relief along the East African Plateau prior to rifting, I analyzed and modeled one of the longest terrestrial lava flows; the 300-km-long Yatta phonolite flow in Kenya. This lava flow is 13.5 Ma old and originated in the region that now corresponds to the eastern rift shoulders. The phonolitic flow utilized an old riverbed that once drained the eastern flank of the plateau. Due to differential erosion this lava flow now forms a positive relief above the parallel-flowing Athi River, which is mimicking the course of the paleo-river. My approach is a lava-flow modeling, based on an improved composition and temperature dependent method to parameterize the flow of an arbitrary lava in a rectangular-shaped channel. The essential growth pattern is described by a one-dimensional model, in which Newtonian rheological flow advance is governed by the development of viscosity and/or velocity in the internal parts of the lava-flow front. Comparing assessments of different magma compositions reveal that length-dominated, channelized lava flows are characterized by high effusion rates, rapid emplacement under approximately isothermal conditions, and laminar flow. By integrating the Yatta lava flow dimensions and the covered paleo-topography (slope angle) into the model, I was able to determine the pre-rift topography of the East African Plateau. The modeling results yield a pre-rift slope of at least 0.2°, suggesting that the lava flow must have originated at a minimum elevation of 1,400 m. Hence, high topography in the region of the present-day Kenya Rift must have existed by at least 13.5 Ma. This inferred mid-Miocene uplift coincides with the two-step expansion of grasslands, as well as important radiation and speciation events in tropical Africa. Accordingly, the combination of my results regarding the Yatta lava flow emplacement history, its location, and its morphologic character, validates it as a suitable “paleo-tiltmeter” and has thus to be considered as an important topographic and volcanic feature for the topographic evolution in East Africa.
Die Identifikation von Einflussfaktoren und deren Wirkungsrichtung auf die Kursentwicklung einer Aktie ist von großer Bedeutung für die Finanzmarktanalyse. Die wechselseitigen Zusammenhänge zwischen den Renditen spezifischer Aktien sind solche relevante Informationen. In diesem Beitrag werden die Interdependenzen von Aktienrenditen auf der Grundlage vektorautoregressiver (VAR)-Modelle für kleine, homogene Brachen- und Marktsegmente analysiert. Hierzu wurden die Renditen ausgewählter im Deutschen Aktienindex (DAX) notierter Unternehmen zu drei Branchensegmenten zusammengefasst. Darüber hinaus zeigt sich am Beispiel der Hoechst-Aktie, dass eine gemeinsame DAX-Notierung Einfluss auf das Beziehungsgeflecht der Renditen innerhalb eines Brachensegmentes nimmt.
Die Analyse der Finanzlage öffentlicher Unternehmen bringt Informationen über die Kapitalbereitstellung und die Liquidität dieser Unternehmen. Die erforderlichen Kennzahlen werden den Jahresabschlussbilanzen entnommen, die die amtliche Statistik in öffentlichen Unternehmen erhebt. Zunächst werden geeigneten Kennzahlen ausgewählt und definiert, für die einzelnen Unternehmen aufbereitet sowie für die Gesamtheit öffentlicher Unternehmen und ihre Klassen aggregiert. Sie werden in ihrer Entwicklung über den Zeitraum von 1999 bis 2006 analysiert und – unter starken Vorbehalten – mit analogen Kennzahlen in der privaten Wirtschaft verglichen. Die Vorbehalte ergeben sich daraus, dass sich Ziele und Bedingungen im öffentlichen Unternehmensbereich häufig von denen der privaten Wirtschaft unterscheiden, z. B. durch die stärkere Orientierung an öffentliche Aufgaben als an betriebswirtschaftliche Effizienz, durch die eingeschränkte Veräußerbarkeit des Vermögens und durch das geringere Risiko einer Insolvenz. Dank der Kapitalzuführungen von der öffentlichen Hand haben öffentliche Unternehmen in Deutschland höhere und zunehmende Eigenkapital- und Rücklagenquoten im Vergleich zu privaten Unternehmen, während ihr durchschnittlicher Innenfinanzierungsgrad und ihre Kapitalrückflussquote unter denen im privaten Sektor liegen. Insgesamt wird durch die Analyse der Finanzlage die enge Verflechtung zwischen öffentlichen Unternehmen und öffentlichen Haushalten unterstrichen.
This Thesis puts its focus on the physics of neutron stars and its description with methods of numerical relativity. In the first step, a new numerical framework the Whisky2D code will be developed, which solves the relativistic equations of hydrodynamics in axisymmetry. Therefore we consider an improved formulation of the conserved form of these equations. The second part will use the new code to investigate the critical behaviour of two colliding neutron stars. Considering the analogy to phase transitions in statistical physics, we will investigate the evolution of the entropy of the neutron stars during the whole process. A better understanding of the evolution of thermodynamical quantities, like the entropy in critical process, should provide deeper understanding of thermodynamics in relativity. More specifically, we have written the Whisky2D code, which solves the general-relativistic hydrodynamics equations in a flux-conservative form and in cylindrical coordinates. This of course brings in 1/r singular terms, where r is the radial cylindrical coordinate, which must be dealt with appropriately. In the above-referenced works, the flux operator is expanded and the 1/r terms, not containing derivatives, are moved to the right-hand-side of the equation (the source term), so that the left hand side assumes a form identical to the one of the three-dimensional (3D) Cartesian formulation. We call this the standard formulation. Another possibility is not to split the flux operator and to redefine the conserved variables, via a multiplication by r. We call this the new formulation. The new equations are solved with the same methods as in the Cartesian case. From a mathematical point of view, one would not expect differences between the two ways of writing the differential operator, but, of course, a difference is present at the numerical level. Our tests show that the new formulation yields results with a global truncation error which is one or more orders of magnitude smaller than those of alternative and commonly used formulations. The second part of the Thesis uses the new code for investigations of critical phenomena in general relativity. In particular, we consider the head-on-collision of two neutron stars in a region of the parameter space where two final states a new stable neutron star or a black hole, lay close to each other. In 1993, Choptuik considered one-parameter families of solutions, S[P], of the Einstein-Klein-Gordon equations for a massless scalar field in spherical symmetry, such that for every P > P⋆, S[P] contains a black hole and for every P < P⋆, S[P] is a solution not containing singularities. He studied numerically the behavior of S[P] as P → P⋆ and found that the critical solution, S[P⋆], is universal, in the sense that it is approached by all nearly-critical solutions regardless of the particular family of initial data considered. All these phenomena have the common property that, as P approaches P⋆, S[P] approaches a universal solution S[P⋆] and that all the physical quantities of S[P] depend only on |P − P⋆|. The first study of critical phenomena concerning the head-on collision of NSs was carried out by Jin and Suen in 2007. In particular, they considered a series of families of equal-mass NSs, modeled with an ideal-gas EOS, boosted towards each other and varied the mass of the stars, their separation, velocity and the polytropic index in the EOS. In this way they could observe a critical phenomenon of type I near the threshold of black-hole formation, with the putative solution being a nonlinearly oscillating star. In a successive work, they performed similar simulations but considering the head-on collision of Gaussian distributions of matter. Also in this case they found the appearance of type-I critical behaviour, but also performed a perturbative analysis of the initial distributions of matter and of the merged object. Because of the considerable difference found in the eigenfrequencies in the two cases, they concluded that the critical solution does not represent a system near equilibrium and in particular not a perturbed Tolmann-Oppenheimer-Volkoff (TOV) solution. In this Thesis we study the dynamics of the head-on collision of two equal-mass NSs using a setup which is as similar as possible to the one considered above. While we confirm that the merged object exhibits a type-I critical behaviour, we also argue against the conclusion that the critical solution cannot be described in terms of equilibrium solution. Indeed, we show that, in analogy with what is found in, the critical solution is effectively a perturbed unstable solution of the TOV equations. Our analysis also considers fine-structure of the scaling relation of type-I critical phenomena and we show that it exhibits oscillations in a similar way to the one studied in the context of scalar-field critical collapse.
In this work, the development of a new molecular building block, based on synthetic peptides derived from decorin, is presented. These peptides represent a promising basis for the design of polymer-based biomaterials that mimic the ECM on a molecular level and exploit specific biological recognition for technical applications. Multiple sequence alignments of the internal repeats of decorin that formed the inner and outer surface of the arch-shaped protein were used to develop consensus sequences. These sequences contained conserved sequence motifs that are likely to be related to structural and functional features of the protein. Peptides representative for the consensus sequences were synthesized by microwave-assisted solid phase peptide synthesis and purified by RP-HPLC, with purities higher than 95 mol%. After confirming the desired masses by MALDI-TOF-MS, the primary structure of each peptide was investigated by 1H and 2D NMR, from which a full assignment of the chemical shifts was obtained. The characterization of the peptides conformation in solution was performed by CD spectroscopy, which demonstrated that using TFE, the peptides from the outer surface of decorin show a high propensity to fold into helical structures as observed in the original protein. To the contrary, the peptides from the inner surface did not show propensity to form stable secondary structure. The investigation of the binding capability of the peptides to Collagen I was performed by surface plasmon resonance analyses, from which all but one of the peptides representing the inner surface of decorin showed binding affinity to collagen with values of dissociation constant between 2•10-7 M and 2.3•10-4 M. On the other hand, the peptides representative for the outer surface of decorin did not show any significant interaction to collagen. This information was then used to develop experimental demonstration for the binding capabilities of the peptides from the inner surface of decorin to collagen even when used in more complicated situations close to possible appications. With this purpose, the peptide (LRELHLNNN) which showed the highest binding affinity to collagen (2•10-7 M) was functionalized with an N-terminal triple bond in order to obtain a peptide dimer via copper(I)-catalyzed cycloaddition reaction with 4,4'-diazidostilbene-2,2'-disulfonic acid. Rheological measurements showed that the presence of the peptide dimer was able to enhance the elastic modulus (G') of a collagen gel from ~ 600 Pa (collagen alone) to ~ 2700 Pa (collagen and peptide dimer). Moreover, it was shown that the mechanical properties of a collagen gel can be tailored by using different molar ratios of peptide dimer respect to collagen. The same peptide, functionalized with the triple bond, was used to obtain a peptide-dye conjugate by coupling it with N-(5'-azidopentanoyl)-5-aminofluorescein. An aqueous solution (5 vol% methanol) of the peptide dye conjugate was injected into a collagen and a hyaluronic acid (HA) gel and images of fluorescence detection showed that the diffusion of the peptide was slower in the collagen gel compared to the HA gel. The third experimental demonstration was gained using the peptide (LSELRLHNN) which showed the lower binding affinity (2.3•10-4 M) to collagen. This peptide was grafted to hyaluronic acid via EDC-chemistry, with a degree of functionalization of 7 ± 2 mol% as calculated by 1H-NMR. The grafting was further confirmed by FTIR and TGA measurements, which showed that the onset of decomposition for the HA-g-peptide decreased by 10 °C compared to the native HA. Rheological measurements showed that the elastic modulus of a system based on collagen and HA-g-peptide increased by almost two order of magnitude (G' = 200 Pa) compared to a system based on collagen and HA (G' = 0.9 Pa). Overall, this study showed that the synthetic peptides, which were identified from decorin, can be applied as potential building blocks for biomimetic materials that function via biological recognition.
Der Autor versucht mit dieser kurzen Einführung eine Übersicht über den Stand der Forschung zu einem Thema zu geben, das in der Forschung bisher noch nicht ausreichend berücksichtigt wurde: der außerschulischen, privatwirtschaftlich organisierten Zusatzbildung, der sogenannten Shadow Education. Der Fokus der Arbeit richtet sich dabei auf die Länder Japan, welches bereits seit den 1970er Jahren ein System außerschulischer Bildungsinstitutionen besitzt, dessen Einfluss auf den Bildungserwerb junger Menschen so stark ist wie in kaum einem anderen Land, und Deutschland, dessen Schattenbildungs- oder Nachhilfesystem noch keinen derartig starken Einfluss ausübt, jedoch in den vergangenen Jahren steten Zuwachs verzeichnen konnte. Interessierten soll dieser Einblick durch die umfangreiche Bibliographie eine Hilfe bei der Recherche zu diesem Thema bieten.
Eumelanin ist ein Fluorophor mit teilweise recht ungewöhnlichen spektralen Eigenschaften. Unter anderem konnten in früheren Veröffentlichungen Unterschiede zwischen dem 1- und 2-photonen-angeregtem Fluoreszenzspektrum beobachtet werden, weshalb im nichtlinearen Anregungsfall ein schrittweiser Anregungsprozess vermutet wurde. Um diese und weitere optische Eigenschaften des Eumelanins besser zu verstehen, wurden in der vorliegenden Arbeit vielfältige messmethodische Ansätze der linearen und nichtlinearen Optik an synthetischem Eumelanin in 0,1M NaOH verfolgt. Aus den Ergebnissen wurde ein Modell abgeleitet, welches die beobachteten photonischen Eigenschaften konsistent beschreibt. In diesem kaskadierten Zustandsmodell (Kaskaden-Modell) wird die aufgenommene Photonenenergie schrittweise von Anregungszuständen hoher Übergangsenergien zu Anregungszuständen niedrigerer Übergangsenergien transferiert. Messungen der transienten Absorption ergaben dominante Anteile mit kurzen Lebensdauern im ps-Bereich und ließen damit auf eine hohe Relaxationsgeschwindigkeit entlang der Kaskade schließen. Durch Untersuchung der nichtlinear angeregten Fluoreszenz von verschieden großen Eumelanin-Aggregaten konnte gezeigt werden, dass Unterschiede zwischen dem linear und nichtlinear angeregten Fluoreszenzspektrum nicht nur durch einen schrittweisen Anregungsprozess bei nichtlinearer Anregung sondern auch durch Unterschiede in den Verhältnissen der Quantenausbeuten zwischen kleinen und großen Aggregaten beim Wechsel von linearer zu nichtlinearer Anregung begründet sein können. Durch Bestimmung des Anregungswirkungsquerschnitts und der Anregungspulsdauer-Abhängigkeit der nichtlinear angeregten Fluoreszenz von Eumelanin konnte jedoch ein schrittweiser 2-Photonen-Anregungsprozess über einen Zwischenzustand mit Lebendsdauern im ps-Bereich nachgewiesen werden.
The inspiral and merger of two black holes is among the most exciting and extreme events in our universe. Being one of the loudest sources of gravitational waves, they provide a unique dynamical probe of strong-field general relativity and a fertile ground for the observation of fundamental physics. While the detection of gravitational waves alone will allow us to observe our universe through an entirely new window, combining the information obtained from both gravitational wave and electro-magnetic observations will allow us to gain even greater insight in some of the most exciting astrophysical phenomena. In addition, binary black-hole mergers serve as an intriguing tool to study the geometry of space-time itself. In this dissertation we study the merger process of binary black-holes in a variety of conditions. Our results show that asymmetries in the curvature distribution on the common apparent horizon are correlated to the linear momentum acquired by the merger remnant. We propose useful tools for the analysis of black holes in the dynamical and isolated horizon frameworks and shed light on how the final merger of apparent horizons proceeds after a common horizon has already formed. We connect mathematical theorems with data obtained from numerical simulations and provide a first glimpse on the behavior of these surfaces in situations not accessible to analytical tools. We study electro-magnetic counterparts of super-massive binary black-hole mergers with fully 3D general relativistic simulations of binary black-holes immersed both in a uniform magnetic field in vacuum and in a tenuous plasma. We find that while a direct detection of merger signatures with current electro-magnetic telescopes is unlikely, secondary emission, either by altering the accretion rate of the circumbinary disk or by synchrotron radiation from accelerated charges, may be detectable. We propose a novel approach to measure the electro-magnetic radiation in these simulations and find a non-collimated emission that dominates over the collimated one appearing in the form of dual jets associated with each of the black holes. Finally, we provide an optimized gravitational wave detection pipeline using phenomenological waveforms for signals from compact binary coalescence and show that by including spin effects in the waveform templates, the detection efficiency is drastically improved as well as the bias on recovered source parameters reduced. On the whole, this disseration provides evidence that a multi-messenger approach to binary black-hole merger observations provides an exciting prospect to understand these sources and, ultimately, our universe.
Parsability approaches of several grammar formalisms generating also non-context-free languages are explored. Chomsky grammars, Lindenmayer systems, grammars with controlled derivations, and grammar systems are treated. Formal properties of these mechanisms are investigated, when they are used as language acceptors. Furthermore, cooperating distributed grammar systems are restricted so that efficient deterministic parsing without backtracking becomes possible. For this class of grammar systems, the parsing algorithm is presented and the feature of leftmost derivations is investigated in detail.
Migration and development in Senegal : a system dynamics analysis of the feedback relationships
(2011)
This thesis investigates the reciprocal relationship between migration and development in Senegal. Therewith, it contributes to the debate as to whether migration in developing countries enhances or rather impedes the development process. Even though extensive and controversial discussions can be found in the scientific literature regarding the impact of migration on development, research has scarcely examined the feedback relationships between migration and development. Science however agrees with both the fact that migration affects development as well as that the level of development in a country determines migration behaviour. Thus, both variables are neither dependent nor independent, but endogenous variables influencing each other and producing behavioural pattern that cannot be investigated using a static and unidirectional approach. On account of this, the thesis studies the feedback mechanisms existing between migration and development and the behavioural pattern generated by the high interdependence in order to be able to draw conclusions concerning the impact of changes in migration behaviour on the development process. To explore these research questions, the study applies the computer simulation method ‘System Dynamics’ and amplifies the simulation model for national development planning called ‘Threshold 21’ (T21), representing development processes endogenously and integrating economic, social and environmental aspects, using a structure that portrays the reasons and consequences of migration. The model has been customised to Senegal, being an appropriate representative of the theoretical interesting universe of cases. The comparison of the model generated scenarios - in which the intensity of emigration, the loss and gain of education, the remittances or the level of dependence changes - facilitates the analysis. The present study produces two important results. The first outcome is the development of an integrative framework representing migration and development in an endogenous way and incorporating several aspects of different theories. This model can be used as a starting point for further discussions and improvements and it is a fairly relevant and useful result against the background that migration is not integrated into most of the development planning tools despite its significant impact. The second outcome is the gained insights concerning the feedback relations between migration and development and the impact of changes in migration on development. To give two examples: It could be found that migration impacts development positively, indicated by HDI, but that the dominant behaviour of migration and development is a counteracting behaviour. That means that an increase in emigration leads to an improvement in development, while this in turn causes a decline in emigration, counterbalancing the initial increase. Another insight concerns the discovery that migration causes a decline in education in the short term, but leads to an increase in the long term, after approximately 25 years - a typical worse-before-better behaviour. From these and further observations, important policy implications can be derived for the sending and receiving countries. Hence, by overcoming the unidirectional perspective, this study contributes to an improved understanding of the highly complex relationship between migration and development and their feedback relations.
Algorithmic Trading
(2011)
Die Elektronisierung der Finanzmärkte ist in den letzten Jahren weit vorangeschritten. Praktisch jede Börse verfügt über ein elektronisches Handelssystem. In diesem Kontext beschreibt der Begriff Algorithmic Trading ein Phänomen, bei dem Computerprogramme den Menschen im Wertpapierhandel ersetzen. Sie helfen dabei Investmententscheidungen zu treffen oder Transaktionen durchzuführen. Algorithmic Trading selbst ist dabei nur eine unter vielen Innovationen, welche die Entwicklung des Börsenhandels geprägt haben. Hier sind z.B. die Erfindung der Telegraphie, des Telefons, des FAX oder der elektronische Wertpapierabwicklung zu nennen. Die Frage ist heute nicht mehr, ob Computerprogramme im Börsenhandel eingesetzt werden. Sondern die Frage ist, wo die Grenze zwischen vollautomatischem Börsenhandel (durch Computer) und manuellem Börsenhandel (von Menschen) verläuft. Bei der Erforschung von Algorithmic Trading wird die Wissenschaft mit dem Problem konfrontiert, dass keinerlei Informationen über diese Computerprogramme zugänglich sind. Die Idee dieser Dissertation bestand darin, dieses Problem zu umgehen und Informationen über Algorithmic Trading indirekt aus der Analyse von (Fonds-)Renditen zu extrahieren. Johannes Gomolka untersucht daher die Forschungsfrage, ob sich Aussagen über computergesteuerten Wertpapierhandel (kurz: Algorithmic Trading) aus der Analyse von (Fonds-)Renditen ziehen lassen. Zur Beantwortung dieser Forschungsfrage formuliert der Autor eine neue Definition von Algorithmic Trading und unterscheidet mit Buy-Side und Sell-Side Algorithmic Trading zwei grundlegende Funktionen der Computerprogramme (die Entscheidungs- und die Transaktionsunterstützung). Für seine empirische Untersuchung greift Gomolka auf das Multifaktorenmodell zur Style-Analyse von Fung und Hsieh (1997) zurück. Mit Hilfe dieses Modells ist es möglich, die Zeitreihen von Fondsrenditen in interpretierbare Grundbestandteile zu zerlegen und den einzelnen Regressionsfaktoren eine inhaltliche Bedeutung zuzuordnen. Die Ergebnisse dieser Dissertation zeigen, dass man mit Hilfe der Style-Analyse Aussagen über Algorithmic Trading aus der Analyse von (Fonds-)Renditen machen kann. Die Aussagen sind jedoch keiner technischen Natur, sondern auf die Analyse von Handelsstrategien (Investment-Styles) begrenzt.
The Arctic is a particularly sensitive area with respect to climate change due to the high surface albedo of snow and ice and the extreme radiative conditions. Clouds and aerosols as parts of the Arctic atmosphere play an important role in the radiation budget, which is, as yet, poorly quantified and understood. The LIDAR (Light Detection And Ranging) measurements presented in this PhD thesis contribute with continuous altitude resolved aerosol profiles to the understanding of occurrence and characteristics of aerosol layers above Ny-Ålesund, Spitsbergen. The attention was turned to the analysis of periods with high aerosol load. As the Arctic spring troposphere exhibits maximum aerosol optical depths (AODs) each year, March and April of both the years 2007 and 2009 were analyzed. Furthermore, stratospheric aerosol layers of volcanic origin were analyzed for several months, subsequently to the eruptions of the Kasatochi and Sarychev volcanoes in summer 2008 and 2009, respectively. The Koldewey Aerosol Raman LIDAR (KARL) is an instrument for the active remote sensing of atmospheric parameters using pulsed laser radiation. It is operated at the AWIPEV research base and was fundamentally upgraded within the framework of this PhD project. It is now equipped with a new telescope mirror and new detection optics, which facilitate atmospheric profiling from 450m above sea level up to the mid-stratosphere. KARL provides highly resolved profiles of the scattering characteristics of aerosol and cloud particles (backscattering, extinction and depolarization) as well as water vapor profiles within the lower troposphere. Combination of KARL data with data from other instruments on site, namely radiosondes, sun photometer, Micro Pulse LIDAR, and tethersonde system, resulted in a comprehensive data set of scattering phenomena in the Arctic atmosphere. The two spring periods March and April 2007 and 2009 were at first analyzed based on meteorological parameters, like local temperature and relative humidity profiles as well as large scale pressure patterns and air mass origin regions. Here, it was not possible to find a clear correlation between enhanced AOD and air mass origin. However, in a comparison of two cloud free periods in March 2007 and April 2009, large AOD values in 2009 coincided with air mass transport through the central Arctic. This suggests the occurrence of aerosol transformation processes during the aerosol transport to Ny-Ålesund. Measurements on 4 April 2009 revealed maximum AOD values of up to 0.12 and aerosol size distributions changing with altitude. This and other performed case studies suggest the differentiation between three aerosol event types and their origin: Vertically limited aerosol layers in dry air, highly variable hygroscopic boundary layer aerosols and enhanced aerosol load across wide portions of the troposphere. For the spring period 2007, the available KARL data were statistically analyzed using a characterization scheme, which is based on optical characteristics of the scattering particles. The scheme was validated using several case studies. Volcanic eruptions in the northern hemisphere in August 2008 and June 2009 arose the opportunity to analyze volcanic aerosol layers within the stratosphere. The rate of stratospheric AOD change was similar within both years with maximum values above 0.1 about three to five weeks after the respective eruption. In both years, the stratospheric AOD persisted at higher rates than usual until the measurements were stopped in late September due to technical reasons. In 2008, up to three aerosol layers were detected, the layer structure in 2009 was characterized by up to six distinct and thin layers which smeared out to one broad layer after about two months. The lowermost aerosol layer was continuously detected at the tropopause altitude. Three case studies were performed, all revealed rather large indices of refraction of m = (1.53–1.55) - 0.02i, suggesting the presence of an absorbing carbonaceous component. The particle radius, derived with inversion calculations, was also similar in both years with values ranging from 0.16 to 0.19 μm. However, in 2009, a second mode in the size distribution was detected at about 0.5 μm. The long term measurements with the Koldewey Aerosol Raman LIDAR in Ny-Ålesund provide the opportunity to study Arctic aerosols in the troposphere and the stratosphere not only in case studies but on longer time scales. In this PhD thesis, both, tropospheric aerosols in the Arctic spring and stratospheric aerosols following volcanic eruptions have been described qualitatively and quantitatively. Case studies and comparative studies with data of other instruments on site allowed for the analysis of microphysical aerosol characteristics and their temporal evolution.
Poröse Sol-Gel-Materialien finden in vielen Bereichen Anwendung bzw. sind Gegenstand der aktuellen Forschung. Zu diesen Bereichen zählen sowohl klassische Anwendungen, wie z. B. die Verwendung als Katalysator, Molekularsieb oder Trockenmittel, als auch nichtklassische Anwendungen, wie z. B. der Einsatz als Kontrastmittel in der Magnet-Resonanz-Tomographie oder in Form von dünnen Zeolithfilmen als Isolatoren in Mikrochips. Auch für den Einsatz in der Photonik werden poröse Materialien in Betracht gezogen, wie die Entwicklung des Zeolith-Farbstoff-Lasers zeigt. Mikroporöse Zeolithe können generell über einfache Ionenaustauschreaktionen mit Lanthanoidionen in lumineszente Materialien umgewandelt werden. Neben der Erzeugung eines lumineszenten Materials, dessen Lumineszenzeigenschaften charakterisiert werden müssen, bietet die Nutzung von Lanthanoidionen die Möglichkeit diese Ionen als Sonde zur Charakterisierung der Ion-Wirt-Wechselwirkungen zu funktionalisieren, was z. B. in Bezug auf die Anwendung als Katalysator von großer Bedeutung ist. Dabei werden die einzigartigen Lumineszenzeigenschaften der Lanthanoidionen, in diesem Fall von Europium(III) und Terbium(III), genutzt. In dieser Arbeit wurden Lanthanoid-dotierte mikroporöse Zeolithe, mikroporös-mesoporöse Hybridmaterialien und mesoporöse Silikate hinsichtlich ihrer Lumineszenzeigenschaften und ihrer Wechselwirkung des Wirtsmaterials mit den Lanthanoidionen mittels zeitaufgelöster Lumineszenzspektroskopie untersucht. Zeitaufgelöste Emissionsspektren (TRES) liefern dabei sowohl Informationen in der Wellenlängen- als auch in der Zeitdomäne. Erstmalig wurden die TRES mittels einer umfangreichen Auswertemethodik behandelt. Neben der Anpassung des Abklingverhaltens mit einer diskreten Zahl von Exponentialfunktionen, wurden unterstützend auch Abklingzeitverteilungsanalysen durchgeführt. Zeitaufgelöste flächennormierte Emissionsspektren (TRANES), eine Erweiterung der normalen TRES, konnten erstmals zur Bestimmung der Zahl der emittierenden Lanthanoidspezies in porösen Materialien genutzt werden. Durch die Berechnung der Decayassoziierten Spektren (DAS) konnten den Lanthanoidspezies die entsprechenden Lumineszenzspektren zugeordnet werden. Zusätzlich konnte, speziell im Fall der Europium-Lumineszenz, durch Kombination von zeitlicher und spektraler Information das zeitabhängige Asymmetrieverhältnis R und die spektrale Evolution des 5D0-7F0-Übergangs mit der Zeit t untersucht und somit wesentliche Informationen über die Verteilung der Europiumionen im Wirtsmaterial erhalten werden. Über die Abklingzeit und das Asymmetrieverhältnis R konnten Rückschlüsse auf die Zahl der OH-Oszillatoren in der ersten Koordinationssphäre und die Symmetrie der Koordinationsumgebung gezogen werden. Für die mikroporösen und mikroporös-mesoporösen Materialien wurden verschiedene Lanthanoidspezies, im Regelfall zwei, gefunden, welche entsprechend der beschriebenen Methoden charakterisiert wurden. Diese Lanthanoidspezies konnten Positionen in den Materialien zugeordnet werden, die sich im tief Inneren des Porensystems oder auf bzw. nahe der äußeren Oberfläche oder in den Mesoporen befinden. Erstere Spezies ist aufgrund ihrer Position im Material gut vor Feuchtigkeitseinflüssen geschützt, was sich deutlich in entsprechend langen Lumineszenzabklingzeiten äußert. Zusätzlich ist diese Europiumspezies durch unsymmetrische Koordinationsumgebung charakterisiert, was auf einen signifikanten Anteil an Koordination der Lanthanoidionen durch die Sauerstoffatome im Wirtsgitter zurückzuführen ist. Ionen, die sich nahe oder auf der äußeren Oberfläche befinden, sind dagegen für Feuchtigkeit zugänglicher, was in kürzeren Lumineszenzabklingzeiten und einer symmetrischeren Koordinationsumgebung resultiert. Der Anteil von Wassermolekülen in der ersten Koordinationssphäre ist hier deutlich größer, als bei den Ionen, die sich tiefer im Porensystem befinden und entspricht in vielen Fällen der Koordinationszahl eines vollständig hydratisierten Lanthanoidions. Auch der Einfluss von Oberflächenmodifikationen auf die Speziesverteilung und das Verhalten der Materialien gegenüber Feuchtigkeit wurde untersucht. Dabei gelang es den Einfluss der Feuchtigkeit auf die Lumineszenzeigenschaften und die Speziesverteilung durch die Oberflächenmodifikation zu verringern und die Lumineszenzeigenschaften teilweise zu konservieren. Im Fall der mesoporösen Silikamonolithe wurde auch eine heterogene Verteilung der Lanthanoidionen im Porensystem gefunden. Hier wechselwirkt ein Teil der Ionen mit der Porenwand, während sich die restlichen Ionen in der wäßrigen Phase innerhalb des Porensystems aufhalten. Das Aufbringen von Oberflächenmodifikationen führte zu einer Wechselwirkung der Ionen mit diesen Oberflächenmodifikationen, was sich in Abhängigkeit von der Oberflächenbeladung in den enstprechenden Lumineszenzeigenschaften niederschlug.
In dieser Arbeit wird das regionale Klimamodell HIRHAM mit einer horizontalen Auflösung von 50 km und 19 vertikalen Schichten erstmals auf den asiatischen Kontinent angewendet, um die indische Monsunzirkulation unter rezenten und paläoklimatischen Bedingungen zu simulieren. Das Integrationsgebiet des Modells erstreckt sich von etwa 0ºN - 50ºN und 42ºE - 110ºE und bedeckt dabei sowohl die hohe Topographie des Himalajas und Tibet Plateaus als auch den nördlichen Indischen Ozean. Das Ziel besteht in der Beschreibung der regionalen Kopplung zwischen der Monsunzirkulation und den orographischen sowie diabatischen Antriebsmechanismen. Eine 44-jährige Modellsimulation von 1958-2001, die am seitlichen und unteren Rand von ECMWF Reanalysen (ERA40) angetrieben wird, bildet die Grundlage für die Validierung der Modellergebnisse mit Beobachtungen auf der Basis von Stations- und Gitterdatensätzen. Der Fokus liegt dabei auf der atmosphärischen Zirkulation, der Temperatur und dem Niederschlag im Sommer- und Wintermonsun, wobei die Qualität des Modells sowohl in Bezug zur langfristigen und dekadischen Klimatologie als auch zur interannuellen Variabilität evaluiert wird. Im Zusammenhang mit einer realistischen Reproduktion der Modelltopographie kann für die Muster der Zirkulation und Temperatur eine gute Übereinstimmung zwischen Modell und Daten nachgewiesen werden. Der simulierte Niederschlag zeigt eine bessere Übereinstimmung mit einem hoch aufgelösten Gitterdatensatz über der Landoberfläche Zentralindiens und in den Hochgebirgsregionen, der den Vorteil des Regionalmodells gegenüber der antreibenden Reanalyse hervorhebt. In verschiedenen Fall- und Sensitivitätsstudien werden die wesentlichen Antriebsfaktoren des indischen Monsuns (Meeresoberflächentemperaturen, Stärke des winterlichen Sibirischen Hochs und Anomalien der Bodenfeuchte) untersucht. Die Ergebnisse machen deutlich, dass die Simulation dieser Mechanismen auch mit einem Regionalmodell sehr schwierig ist, da die Komplexität des Monsunsystems hochgradig nichtlinear ist und die vor allem subgridskalig wirkenden Prozesse im Modell noch nicht ausreichend parametrisiert und verstanden sind. Ein paläoklimatisches Experiment für eine 44-jährige Zeitscheibe im mittleren Holozän (etwa 6000 Jahre vor heute), die am Rand von einer globalen ECHAM5 Simulation angetrieben wird, zeigt markante Veränderungen in der Intensität des Monsuns durch die unterschiedliche solare Einstrahlung, die wiederum Einflüsse auf die SST, die Zirkulation und damit auf die Niederschlagsmuster hat.
Neues deutsches Gedenken?
(2011)
Bedarf es eines neuen Gedenktages der Vertriebenen in Deutschland? Die deutsche Regierung meint Ja. Auf ihre Initiative hin wurde die Entschließung "60 Jahre Charta der deutschen Heimatvertriebenen – Aussöhnung vollenden" im Februar 2011 angenommen. Dieser Gedenktag soll der 5. August sein, also jener Tag, an dem 1950 die "Charta der deutschen Heimatvertriebenen" in Stuttgart angenommen wurde. Der Entschluss traf im Bundestag auf den Widerstand der Opposition – aber auch auf scharfe Kritik in Polen.
In diesem Beitrag wird "fallbasierte Lernberatung" als ein zentrales Moment der Weiterentwicklung der Studierfähigkeit der Studierenden vor- und dargestellt. Fallbasierte Lernberatung wird darin als reflexive Praktik verstanden, die in Lehrveranstaltungen oder begleitend zu Lehrveranstaltungen angeboten werden kann. Mit der Bereitstellung eines solchen Lernberatungsangebots wird zweierlei erreicht. Studierende erhalten die professionell begleitete Gelegenheit, ihre Lernfähigkeiten weiter zu entwickeln und Lehrende Aufschluss über die konkreten Lernprobleme der Studierenden. Dieser kann wiederum auf das Lehrangebot rückwirken und so die Qualität der Lehre verbessern helfen.
CSOM/PL is a software product line (SPL) derived from applying multi-dimensional separation of concerns (MDSOC) techniques to the domain of high-level language virtual machine (VM) implementations. For CSOM/PL, we modularised CSOM, a Smalltalk VM implemented in C, using VMADL (virtual machine architecture description language). Several features of the original CSOM were encapsulated in VMADL modules and composed in various combinations. In an evaluation of our approach, we show that applying MDSOC and SPL principles to a domain as complex as that of VMs is not only feasible but beneficial, as it improves understandability, maintainability, and configurability of VM implementations without harming performance.
Der Forschungskreis Vereinte Nationen wurde 1999 als informelles Netzwerk für UN-Forschung gegründet mit dem Ziel, den Informationsaustausch unter den Wissenschaftlern der verschiedenen Fachdisziplinen und den Dialog mit den Praktikern zu fördern. Die regelmäßig stattfindenden Potsdamer UNO-Konferenzen des Forschungskreises Vereinte Nationen widmen sich der kritischen Analyse der UN-Forschung. Darüber hinaus bieten sie ein Forum für die Diskussion mit Politikern, UN-Mitarbeitern, Diplomaten und Journalisten über die Aufgaben der Vereinten Nationen und ihre Strukturen sowie über Konzepte zu ihrer Reform. Im vorliegenden Buch werden wichtige Referate der Potsdamer UNO-Konferenzen 2000 – 2008 veröffentlicht, die sich unter anderem den Themenbereichen Friedenssicherung, Menschenrechtsschutz und Umweltschutz durch die Vereinten Nationen, der Reform der UN-Hauptorgane sowie der deutschen UN-Politik und der UN-Politik im Rahmen der Europäischen Union widmen, und die ergänzt werden durch Beiträge der beiden Herausgeber zu den Problemen und Perspektiven der UN-Forschung in Deutschland.
Diese Arbeit untersucht, welche Faktoren die unterschiedliche Ausgestaltung von Beteiligungsmanagement in Kommunen erklären. Die Literatur verweist zwar auf die zunehmende Wichtigkeit des Managements von Beteiligungen, aber in der Praxis unterscheidet sich die Steuerung der Beteiligung stark. Auf Basis der Literatur zu Beteiligungsmanagement und zum Performance Management wird ein analytischer Rahmen aufgestellt, der es erlaubt, das Beteiligungsmanagement in Kommunen zu kategorisieren. Auch wird aus der Literatur abgeleitet, in wie weit strukturelle, institutionelle und akteursbezogene Faktoren die Ausgestaltung des Beteiligungsmanagement erklären können. Im Rahmen dieser Studie werden vier kreisfreien Städten verglichen und explorativ mögliche Erklärungsfaktoren identifiziert. So sind insbesondere institutionelle Faktoren, wie die organisatorische Ausgestaltung des Beteiligungsmanagements oder die Erfahrungen und Kompetenzen der Verwaltung, und akteursbezogene Faktoren, wie die Einstellung und Interessen von Verwaltungsleitung, Politik und Beteiligungen, wahrscheinliche Erklärungsfaktoren.
Public debate about energy relations between the EU and Russia is distorted. These distortions present considerable obstacles to the development of true partnership. At the core of the conflict is a struggle for resource rents between energy producing, energy consuming and transit countries. Supposed secondary aspects, however, are also of great importance. They comprise of geopolitics, market access, economic development and state sovereignty. The European Union, having engaged in energy market liberalisation, faces a widening gap between declining domestic resources and continuously growing energy demand. Diverse interests inside the EU prevent the definition of a coherent and respected energy policy. Russia, for its part, is no longer willing to subsidise its neighbouring economies by cheap energy exports. The Russian government engages in assertive policies pursuing Russian interests. In so far, it opts for a different globalisation approach, refusing the role of mere energy exporter. In view of the intensifying struggle for global resources, Russia, with its large energy potential, appears to be a very favourable option for European energy supplies, if not the best one. However, several outcomes of the strategic game between the two partners can be imagined. Engaging in non-cooperative strategies will in the end leave all stakeholders worse-off. The European Union should therefore concentrate on securing its partnership with Russia instead of damaging it. Stable cooperation would need the acceptance that the partner may pursue his own goals, which might be different from one’s own interests. The question is, how can a sustainable compromise be found? This thesis finds that a mix of continued dialogue, a tit for tat approach bolstered by an international institutional framework and increased integration efforts appears as a preferable solution.
Lokale Politiknetzwerke werden sowohl in der öffentlichen Sozialstaatsdebatte als auch in der sozialwissenschaftlichen Forschung als vielversprechende Instrumente zur Optimierung von Wohlfahrtsmärkten propagiert. So auch in der Diskussion um den deutschen Pflegemarkt und seine Steuerungsdefizite. Im Gegensatz zu den mit dem Steuerungsinstrument Pflegekonferenz verknüpften Erwartungen, sind dessen genaues Steuerungspotential und mögliche Erklärungsfaktoren bisher jedoch nicht systematisch untersucht worden. Den methodologischen Kern dieser Arbeit bilden eine strukturelle Politikfeldanalyse des deutschen Pflegemarktes in Kombination mit einer empirischen Einzelfallstudie zu den Steuerungsleistungen einer Pflegekonferenz. Grundlage ist ein spezifisches Analyseraster auf Basis des akteurzentrierten Institutionalismus, welches die Aufmerksamkeit in der Analyse der Erklärungsfaktoren auf die Kombination der Koordinationsinstrumente Markt und Netzwerk sowie die Ausgestaltung des institutionellen Rahmens durch Gesetzgebung und Selbstverwaltung lenken soll. Im Rahmen der empirischen Erhebung konnten kaum direkte und nur wenige indirekte Steuerungsleistungen nachgewiesen werden. Als Ergebnis der Analyse lässt sich festhalten, dass lokale Politiknetzwerke im Umfeld des deutschen Pflegemarktes grundsätzlich mit erheblichen Herausforderungen hinsichtlich ihrer Steuerungsfunktion zu kämpfen haben. Dies lässt sich zum einen darauf zurückführen, dass ein gemeinsames Steuerungsinteresse der Akteure nur in wenigen Bereichen vorhanden ist, da die Grundbedingung der Interdependenz selten gegeben ist und auch nur sehr eingeschränkt innerhalb von Pflegekonferenzen entwickelt werden kann. Zum anderen sind die steuerungsrelevanten Handlungsressourcen oftmals lokal nicht verfügbar, wodurch erschwerend die Steuerungsmöglichkeiten eingeschränkt werden. Je nach Steuerungsbereich sind diese Faktoren jedoch verschieden ausgeprägt, sodass sich unterschiedliche Steuerungspotentiale ergeben.
Küsten und Klimawandel in den Augen von Touristen : eine Wahrnehmungsanalyse an der deutschen Ostsee
(2011)
Aufgrund seiner wirtschaftlichen Bedeutung spielt der Tourismus in Mecklenburg-Vorpommern eine große Rolle. Insbesondere die Küstengebiete sind beliebte Reiseziele. In den letzten Jahren konnte ein kontinuierlicher Anstieg der Ankünfte und Übernachtungen verzeichnet werden. Neben anderen Faktoren werden die regionalen Auswirkungen des Klimawandels jedoch in Zukunft eine Herausforderung für den Tourismussektor darstellen. Die globale Erwärmung wird für den Strand- und Badetourismus sowohl negative, als auch positive Folgen haben, auf die reagiert werden muss. Neben vorbeugenden Klimaschutzmaßnahmen werden künftig auch Anpassungsstrategien entwickelt werden müssen, die den zu erwartenden Veränderungen Rechnung tragen. Doch zu welchen tourismusrelevanten Veränderungen wird es überhaupt kommen und was geschieht bereits aktuell? Sind die Folgen des Klimawandels durch Touristen schon jetzt wahrnehmbar? Wie reagieren die Urlauber auf eventuelle Veränderungen? Diese und andere Fragen soll die vorliegende Arbeit, die innerhalb des RAdOST-Vorhabens (Regionale Anpassungsstrategien für die deutsche Ostseeküste) angesiedelt ist, beantworten. Dazu wurde zum einen eine Literaturrecherche zu tourismusrelevanten Klimawandelfolgen an der deutschen Ostseeküste durchgeführt. Zum anderen erfolgte in den Sommermonaten 2010 eine Befragung der Strandgäste in Markgrafenheide, Warnemünde und Nienhagen an der mecklenburgischen Ostseeküste. Im Mittelpunkt der Umfrage stand die Wahrnehmung von Erscheinungen (z.B. viele Quallen oder warmes Ostseewasser) sowie kurz- oder langfristigen Veränderungen an der Küste (z.B. schmalere Strände, vermehrter Strandanwurf) durch die Urlauber. Außerdem wurden die Einstellung und der Informationsgrad der Gäste zum Thema Klimawandel an der Ostseeküste analysiert. Ziel war es, aus den Umfrageergebnissen Handlungsempfehlungen für das lokale Strandmanagement hinsichtlich künftiger Anpassungsstrategien abzuleiten. Die Literaturrecherche zeigte, dass in einigen Bereichen schon jetzt Veränderungen (z.B. der Luft- und Wassertemperatur oder des Meeresspiegels) nachweisbar sind und laut verschiedener Modellprojektionen von weiteren Veränderungen ausgegangen werden kann. Wie die Umfrage deutlich machte, sind die Veränderungen momentan durch Touristen jedoch kaum oder gar nicht wahrnehmbar. Dementsprechend gering ist auch ihre Reaktion auf die einzelnen Phänomene. Generell ist die Wahrnehmung der Urlauber sehr subjektiv und selektiv. Manche Gegebenheiten wie beispielsweise existierende Küstenschutzmaßnahmen werden von einem großen Teil der Touristen gar nicht wahrgenommen. Hinsichtlich anderer Erscheinungen wie Strandanwurf und Quallen sind viele Besucher wiederum sehr sensibel. Es zeigte sich außerdem, dass es für die meisten Urlauber schwierig ist, zu beurteilen, ob bestimmte Gegebenheiten am Strand und an der Küste mit der globalen Erwärmung in Verbindung stehen oder nicht. Es besteht eine große Unsicherheit zu diesem Thema und oft wird der Klimawandel als Ursache für Erscheinungen genannt, auch wenn der kausale Zusammenhang wissenschaftlich nicht nachzuweisen ist. Es zeigte sich, dass die Urlauber sehr wenig über die regionalen Auswirkungen des Klimawandels informiert sind, sich aber Informationen wünschen. Folglich sollte zunächst die Aufklärung und Information der Urlauber über die Folgen der Veränderung des Klimas im Vordergrund stehen. Denn manche Aspekte, wie der Verlust von Strandabschnitten durch Erosion oder eine eventuelle Zunahme von Blaualgen in der Sommersaison, können nicht gänzlich vermieden werden. Durch gezielte Aufklärung könnte jedoch beispielsweise eine Akzeptanz für naturnahe Strände oder für den Rückzug aus einzelnen Gebieten geschaffen werden. Darüber hinaus sollte die zu erwartende Saisonverlängerung systematisch genutzt werden, um sowohl die Küste, als auch das Hinterland durch gezielte Angebote für Touristen attraktiv zu machen. Auf diese Weise könnte eine Entzerrung der Hauptsaison und eine bessere Auslastung der Beherbergungsbetriebe sowie der touristischen Infrastruktur erreicht werden.
Geschichte ist überall – heute auch und vor allem in audiovisuellen Massenmedien. Mittlerweile sind Historienfilme und historische Dokumentationen, ganz gleich ob im Fernsehen, im Kino, im Internet oder auf mobilen Datenträgern, zu wichtigen Medien der populären Präsentation und Projektion allgemeinhistorischen Wissens avanciert. Der vorliegende Band greift die geschichtswissenschaftliche Diskussion über Historienfilme auf und fragt u. a. danach, welche Bilder von Militär und Gesellschaft der Frühen Neuzeit Historienfilme vermitteln, aus welchen Gründen und mit welchen Mitteln sie dies tun. Aus vorwiegend geschichtswissenschaftlicher Perspektive untersuchen die einzelnen Beiträge filmische Inszenierungen von Vergangenheit: deren innerfilmische Realitäten, Produktionsbedingungen, Gegenwartsbezüge und Rezeptionsweisen.
In the present thesis, the self-assembly of multi thermoresponsive block copolymers in dilute aqueous solution was investigated by a combination of turbidimetry, dynamic light scattering, TEM measurements, NMR as well as fluorescence spectroscopy. The successive conversion of such block copolymers from a hydrophilic into a hydrophobic state includes intermediate amphiphilic states with a variable hydrophilic-to-lipophilic balance. As a result, the self-organization is not following an all-or-none principle but a multistep aggregation in dilute solution was observed. The synthesis of double thermoresponsive diblock copolymers as well as triple thermoresponsive triblock copolymers was realized using twofold-TMS labeled RAFT agents which provide direct information about the average molar mass as well as residual end group functionality from a routine proton NMR spectrum. First a set of double thermosensitive diblock copolymers poly(N-n-propylacrylamide)-b-poly(N-ethylacrylamide) was synthesized which differed only in the relative size of the two blocks. Depending on the relative block lengths, different aggregation pathways were found. Furthermore, the complementary TMS-labeled end groups served as NMR-probes for the self-assembly of these diblock copolymers in dilute solution. Reversible, temperature sensitive peak splitting of the TMS-signals in NMR spectroscopy was indicative for the formation of mixed star-/flower-like micelles in some cases. Moreover, triple thermoresponsive triblock copolymers from poly(N-n-propylacrylamide) (A), poly(methoxydiethylene glycol acrylate) (B) and poly(N-ethylacrylamide) (C) were obtained from sequential RAFT polymerization in all possible block sequences (ABC, BAC, ACB). Their self-organization behavior in dilute aqueous solution was found to be rather complex and dependent on the positioning of the different blocks within the terpolymers. Especially the localization of the low-LCST block (A) had a large influence on the aggregation behavior. Above the first cloud point, aggregates were only observed when the A block was located at one terminus. Once placed in the middle, unimolecular micelles were observed which showed aggregation only above the second phase transition temperature of the B block. Carrier abilities of such triple thermosensitive triblock copolymers tested in fluorescence spectroscopy, using the solvatochromic dye Nile Red, suggested that the hydrophobic probe is less efficiently incorporated by the polymer with the BAC sequence as compared to ABC or ACB polymers above the first phase transition temperature. In addition, due to the problem of increasing loss of end group functionality during the subsequent polymerization steps, a novel concept for the one-step synthesis of multi thermoresponsive block copolymers was developed. This allowed to synthesize double thermoresponsive di- and triblock copolymers in a single polymerization step. The copolymerization of different N-substituted maleimides with a thermosensitive styrene derivative (4-vinylbenzyl methoxytetrakis(oxyethylene) ether) led to alternating copolymers with variable LCST. Consequently, an excess of this styrene-based monomer allowed the synthesis of double thermoresponsive tapered block copolymers in a single polymerization step.
In the living cell, the organization of the complex internal structure relies to a large extent on molecular motors. Molecular motors are proteins that are able to convert chemical energy from the hydrolysis of adenosine triphosphate (ATP) into mechanical work. Being about 10 to 100 nanometers in size, the molecules act on a length scale, for which thermal collisions have a considerable impact onto their motion. In this way, they constitute paradigmatic examples of thermodynamic machines out of equilibrium. This study develops a theoretical description for the energy conversion by the molecular motor myosin V, using many different aspects of theoretical physics. Myosin V has been studied extensively in both bulk and single molecule experiments. Its stepping velocity has been characterized as a function of external control parameters such as nucleotide concentration and applied forces. In addition, numerous kinetic rates involved in the enzymatic reaction of the molecule have been determined. For forces that exceed the stall force of the motor, myosin V exhibits a 'ratcheting' behaviour: For loads in the direction of forward stepping, the velocity depends on the concentration of ATP, while for backward loads there is no such influence. Based on the chemical states of the motor, we construct a general network theory that incorporates experimental observations about the stepping behaviour of myosin V. The motor's motion is captured through the network description supplemented by a Markov process to describe the motor dynamics. This approach has the advantage of directly addressing the chemical kinetics of the molecule, and treating the mechanical and chemical processes on equal grounds. We utilize constraints arising from nonequilibrium thermodynamics to determine motor parameters and demonstrate that the motor behaviour is governed by several chemomechanical motor cycles. In addition, we investigate the functional dependence of stepping rates on force by deducing the motor's response to external loads via an appropriate Fokker-Planck equation. For substall forces, the dominant pathway of the motor network is profoundly different from the one for superstall forces, which leads to a stepping behaviour that is in agreement with the experimental observations. The extension of our analysis to Markov processes with absorbing boundaries allows for the calculation of the motor's dwell time distributions. These reveal aspects of the coordination of the motor's heads and contain direct information about the backsteps of the motor. Our theory provides a unified description for the myosin V motor as studied in single motor experiments.
Dieser Text geht der Frage nach, wie die wissenschaftliche Auseinandersetzung mit den nationalsozialistischen Ghettos in der Zeit von 1945 bis 1960 im englischen Sprachraum betrieben wurde. Werke, die jüdisches Erleben und Handeln mitsamt der gesellschaftlichen Organisation in den Mittelpunkt rücken, sind in diesem Zeitraum deutlich stärker vertreten, als dies nach einer Lektüre der Sekundärliteratur zu erwarten wäre. Ein wissenschaftlicher Ansatz, der die Juden nicht nur als namenlose Masse von Opfern wahrnimmt, tritt also durchaus schon früh auf. Ebenso wird die Politik der jüdischen Führungsschichten, der so genannten ‚Judenräte‘, deutlich differenzierter verhandelt als vermutet; neben vernichtenden Urteilen finden sich Kontextualisierungen, die ihr Agieren aus verschiedenen Blickwinkeln beleuchten und einordnen. Auch wenn diese Forschungsanliegen zunächst nur bedingt rezipiert wurden und vor allem universitär marginal blieben, lassen sich doch von dieser Seite Traditionslinien besonders in die entstehende israelische Holocaustforschung beobachten.
Bei den nationalsozialistischen Ghettos handelte es nicht nur um Orte der Verfolgung, sondern auch um Lebenswelten, die von den Bewohner/innen selbst mitgestaltet wurden – auch wenn die Handlungsspielräume durch die Rahmenbedingungen stark eingeschränkt waren. Im Artikel werden die Pläne für ein Museum im Ghetto Litzmannstadt diskutiert, das neben einer wirtschaftlichen und statistischen Ausstellung über die Produktionsleistungen der Ghettobetriebe auch einen kulturell-religiösen Bereich über das osteuropäische Judentum umfassen sollte. Die Idee für das Museum entstand in der deutschen Ghettoverwaltung, diese richtete für die Ausgestaltung der Räume über das Judentum eine Wissenschaftliche Abteilung innerhalb des Ghettos ein. Die Position der Wissenschaftlichen Abteilung, deren Arbeit in Sammlungs- und künstlerischen Aktivitäten bestand, war im Ghetto allerdings umstritten, da die propagandistische Vereinnahmung der ausgeführten Arbeiten durch die deutsche Ghettoverwaltung befürchtet wurde. Aber auch außerhalb des Ghettos stieß die Idee auf Ablehnung durch das Propagandaministerium. Im Artikel werden die sich überschneidenden aber teilweise auch widersprüchlichen Interessen und Motivationen der verschiedenen Protagonisten/innen dargestellt.
Space is understood best through movement, and complex spaces require not only movement but navigation. The theorization of navigable space requires a conceptual representation of space which is adaptable to the great malleability of video game spaces, a malleability which allows for designs which combine spaces with differing dimensionality and even involve non-Euclidean configurations with contingent connectivity. This essay attempts to describe the structural elements of video game space and to define them in such a way so as to make them applicable to all video game spaces, including potential ones still undiscovered, and to provide analytical tools for their comparison and examination. Along with the consideration of space, there will be a brief discussion of navigational logic, which arises from detectable regularities in a spatial structure that allow players to understand and form expectations regarding a game’s spaces.
This paper addresses a theoretical reconfiguration of experience, a repositioning of the techno-social within the domains of mobility, games, and play, and embodiment. The ideas aim to counter the notion that our experience with videogames (and digital media more generally), is largely “virtual” and disembodied – or at most exclusively audiovisual. Notions of the virtual and disembodied support an often-tacit belief that technologically mediated experiences count for nothing if not perceived and valued as human. It is here where play in particular can be put to work, be made to highlight and clarify, for it is in play that we find this value of humanity most wholly embodied. Further, it is in considering the design of the metagame that questions regarding the play experience can be most powerfully engaged. While most of any given game’s metagame emerges from play communities and their larger social worlds (putting it out of reach of game design proper), mobile platforms have the potential to enable a stitching together of these experiences: experiences held across time, space, communities, and bodies. This coming together thus represents a convergence not only of media, participants, contexts, and technologies, but of human experience itself. This coming together is hardly neat, nor fully realized. It is, if nothing else, multifaceted and worthy of further study. It is a convergence in which the dynamics of screen play are reengaged.
This co-authored paper is based on research that originated in 2003 when our team started a series of extensive field studies into the character of gameplay experiences. Originally within the Children as the Actors of Game Cultures research project, our aim was to better understand why particularly young people enjoy playing games, while also asking their parents how they perceive gaming as playing partners or as close observers. Gradually our in-depth interviews started to reveal a complex picture of more general relevance, where personal experiences, social contexts and cultural practices all came together to frame gameplay within something we called game cultures. Culture was the keyword, since we were not interested in studying games and play experiences in isolation, but rather as part of the rich meaning- making practices of lived reality.
Paul Lindaus DER ANDERE
(2011)
In dieser Arbeit wird die Wirkungs- und Entstehungsgeschichte des Schauspiels „Der Andere“ (1893) von Paul Lindau (1819-1839) untersucht. Der Fokus richtet sich auf die vielfältigen intertextuellen und intermedialen Verknüpfungen des Stückes, die sich über einen Zeitraum von 40 Jahren erstrecken. „Der Andere“ inszeniert einen Fall von Bewusstseinsspaltung, in welchem der Protagonist, ein angesehener Berliner Staatsanwalt, unwissentlich ein nächtliches Doppelleben führt und infolgedessen einen Einbruch in sein eigenes Haus begeht. Hier wird insbesondere den Wechselbeziehungen von medizinischen und medialen Diskursen nachgegangen, da „Der Andere“ nicht nur von nervenmedizinischer Seite als psychiatrischer Fall aufgegriffen, sondern 1913 unter Beteiligung Lindaus als erster deutscher 'Autorenfilm' und 1930 als erster Tonfilm Robert Wienes produziert worden ist. Während filmhistorische Untersuchungen den Befund der errungenen 'Feuilletonfähigkeit' des Stummfilmes festhielten, blieb das Interesse an dem Theaterstück von Seiten der Literaturwissenschaft bislang gering. Ihm war der Status als Vorlage beschieden, die aufgrund ihrer gespaltenen Hauptfigur Verbindungen zu Robert Louis Stevensons „Strange Case of Dr Jekyll and Mr Hyde“ und Hippolyte Taines „De l'Intelligence“ herzustellen scheint, welche bis heute undifferenziert als zentrale Prätexte tradiert worden sind. Verfolgt man hingegen die Spur von weniger prominenten Prätexten, ergibt sich ein vollständigeres Bild. Es stellt sich heraus, dass Lindau eine wesentliche Anregung aus einer unter Pseudonym verfassten französischen Novelle bezog, die er selbst ins Deutsche übersetzte, und dass das Spaltungskonzept von „Der Andere“ diesem Prätext samt seiner Anlehnung an Hippolyte Taine folgt. Auch verweist die Novelle Jeanne Weills auf einen prominenten Fall des Mediziners Adrien Proust, dem Vater Marcel Prousts, der einen straffällig gewordenen Juristen hypnotisch behandelte. Die Diagnose alternierender Bewusstseinszustände führte in diesem Fall zur Annullierung des Schuldspruchs. Durch den Wechsel in das Medium Film konnten wiederum Verbindungen etabliert werden, die den Bezug auf diese Prätexte verlagerten, überschrieben und/oder aktualisierten. So zieht der Stummfilm als wissenschaftliche Rückversicherung allein die schon damals überholte Studie Taines heran, während die spätere Tonverfilmung das psychoanalytische Konzept Freuds als Erklärungsmuster anbietet. Die Untersuchung zeigt am Beispiel von „Der Andere“, dass mediale, literarische und psychologische Diskurse fest miteinander verwoben sind. Ideen und Konzepte zirkulieren zwischen ihnen, weshalb sich die Grenzen zwischen authentischen und fiktiven Fallgeschichten als durchlässig erweisen. Im Falle von „Der Andere“ setzten diese Austauschprozesse eine besonders hohe Produktivität frei.
Das Ziel der Arbeit ist es, die Vielfalt unterschiedlicher Einsatzmöglichkeiten von Social Software in der Hochschullehre unter einer didaktischen Perspektive kritisch in den Blick zu nehmen. So wird entsprechenden Webanwendungen im mediendidaktischen Diskurs das Potenzial zugesprochen, Lern- und Bildungsprozesse zu unterstützen. Jenseits dieser Potenziale sind bisher jedoch kaum typische Probleme beachtet worden, die mit dem Einsatz von Social Software in der Hochschule einhergehen. Zur Annäherung an den Forschungsgegenstand werden im ersten Teil der Arbeit (lehr- und) lerntheoretische Potenziale von Social Software anhand von Literatur aufgearbeitet. Für die Entwicklung eines konzeptuellen Rahmens für eine vergleichende Darstellung unterschiedlicher Umsetzungen werden ferner verschiedene didaktische Beschreibungs- und Analysemodelle diskutiert. Im zweiten Teil der Arbeit wird eine systematische – jedoch vom Umfang her begrenzte und dementsprechend exemplarische – Sichtung und Analyse empirisch basierter Arbeiten zum Einsatz von Social Software in der Hochschullehre durchgeführt. Mit Hilfe eines modifizierten didaktischen Szenariomodells wird die Vielfalt unterschiedlicher Einsatzformen kategoriengeleitet dargestellt. Als zentrales Thema hinsichtlich typischer Probleme konnte das Ausbleiben studentischer Partizipation sowie der Umgang der Lehrenden mit dieser Problematik herausgearbeitet werden.
Der vorliegende Text befasst sich heuristisch mit der Frage der Integration des Entfremdungsbegriffs der Kritischen Theorie in die Subjektwissenschaft, unter besonderer Berücksichtigung der subjektwissenschaftlichen Lerntheorie Klaus Holzkamps als Vertreter der Kritischen Psychologie. Ausgangspunkt ist die aus meiner Auseinandersetzung mit beiden Theorien entstandene Hypothese, dass (aus guten Gründen) der Begriff der Entfremdung in der Subjektwissenschaft gemieden, aber nicht durch ein anderes, kompatibles Konzept ersetzt wurde, dass die in der Entfremdung gefassten Dimensionen fassen könnte. Dies eröffnet auch die Frage, ob der Entfremdungsbegriff in einer Weise rekonstruiert werden kann, dass er für die Subjektwissenschaft anknüpffähig ist. Die Arbeit ist eine kategoriale und damit theoretisch-wissenschaftliche; sie betrifft aber in ihrem Bezug zu unserer Handlungsfähigkeit als gesellschaftliche Subjekte direkt Themen gesellschaftlicher (Selbst-)Organisation, in der Annahme, dass Theorie eine Bedeutung für die politische, pädagogische und andere Praxis hat und dass sie jene Erklärungsmuster bildet, mit denen wir für uns begründen, was warum passiert – und was deshalb getan werden muss. Wie Entfremdung in der bürgerlichen Gesellschaft funktioniert, in der Familie, in der Schule, auf der Arbeit, in Werbung und Fernsehen, das hat die Kritische Theorie in Anknüpfung an marxistische sozio-ökonomische Analysen umfassend analysiert. Den ersten Vertretern der Kritischen Theorie ging es bei der Ausarbeitung des Phänomens der Entfremdung um die Antwort auf die Frage, warum es weder in den 1920ern und Anfang der 30er Jahre noch nach dem NS-Faschismus eine Revolution gab. Beim Lesen vor allem der späten Texte von Adorno und Marcuse vermittelt sich eine relative Hoffnungslosigkeit; die kapitalistische Ideologie habe sich im Zuge der Vergesellschaftung so in den Köpfen zementiert, dass ein In-Frage-stellen des Status quo kaum möglich sei. Für eine emanzipatorische pädagogische oder politische Praxis sind diese Schlussfolgerungen enttäuschend, weil sie eine kritische Analyse der Gesellschaft liefert, dem Subjekt aber die Handlungsfähigkeit zur grundlegenden Veränderung seiner Lebensbedingungen weitgehend abspricht. Ein weiteres Problem liegt im Konzept der Entfremdung selbst, da von den Wissenschaftler_innen bestimmt wird, wer entfremdet ist und wer nicht. Die Menschen können (beispielsweise nach Marcuse) gerade aufgrund ihrer fortgeschrittenen Entfremdung dieser nicht mehr selbst gewahr werden. Die Kritische Psychologie im Gegensatz dazu setzt handlungsfähige Subjekte, die "nicht im Kapitalismus wie in einem Käfig" sitzen (Holzkamp 1984b). Dies begründet sich im subjektwissenschaftlichen Zugang der Erklärung menschlichen Handelns, das heißt der Einnahme des Subjektstandpunkts zur Erforschung desselben im Rahmen begründungstheoretischer Diskursmodelle.
Wissenschaftler sind regelmäßig mehr an Forschung interessiert als an Lehre. Dies hat verschiedene Gründe, auf die hier nicht im Einzelnen eingegangen werden soll. Einer dieser Gründe liegt im eigenen Professionsverständnis als Forscher/in bzw. Wissenschaftler/in begründet. Im Kern geht es dabei um Entdeckungen, um Innovationen, um die Weiterentwicklung vorhandenen Wissens. Lehre wird dem gegenüber als intermediärer Bereich gesehen, in dem vorhandenes Wissen reproduziert wird, der deshalb mehr dem Berufssystem zugehörig ist und weniger dem Wissenschaftssystem (Fangmann 2006, S. 30). Lehre erscheint deshalb als Belastung, die mit Forschung nicht korrespondiert, eher von Forschung abhält, insbesondere wenn Studierende den eigenen Lehrbemühungen passiv gegenüberstehen und der Ertrag der Lehre zweifelhaft erscheint. Im Folgenden soll die Verwandtschaft von Forschung und Lernen dargestellt und auf ihre korrespondierenden Logiken verwiesen werden. Grundlage dafür ist ein lerntheoretisches Modell, das Lernen subjekttheoretisch als soziales Handeln konzipiert (Holzkamp 1993), das mit Forschen vergleichbar ist. Forschungsbasierte Lehre wird im Kontext einer subjekttheoretischen Didaktik (Ludwig 2006) als Lehre im Format der Forschung vorgestellt, die Lernen unterstützen kann, weil Lernen dem Forschungsprozess ähnelt. Typen, Erträge und Umsetzungsprobleme forschungsbasierter Lehre werden kurz skizziert.
Integrated real-time visualisation of massive 3D-Point clouds and geo-referenced textured dates
(2011)
Antiplatelet therapy in the era of percutaneous coronary intervention with drug-eluting balloons
(2011)
The high rate of restenosis associated with percutaneous coronary intervention (PCI) procedures can be reduced with the implantation of metallic stents into the stenotic vessels. The knowledge that neointimal formation can result in restenosis after stent implantation led to the development of drug-eluting stents (DES) which require long lasting antiplatelet therapy to avoid thrombotic complications. In the last years, the drug-eluting balloon (DEB) technology has emerged as an alternative option for the treatment of coronary and peripheral arteries. Clinical studies demonstrated the safety and effectiveness of DEB in various clinical scenarios and support the use of paclitaxel-eluting balloons for the treatment of in-stent restenosis, of small coronary arteries and bifurcations lesions. The protocols of DEB studies suggest that the dual antiplatelet therapy with aspirin and clopidogrel of four weeks after DEB is safe and effective.
The armed conflict in Afghanistan since 2001 has raised manifold questions pertaining to the humanitarian rules relative to the conduct of hostilities. In Afghanistan, as is often the case in so-called asymmetric conflicts, the geographical and temporal boundaries of the battlefield, and the distinction between civilians and fighters, are increasingly blurred. As a result, the risks for both civilians and soldiers operating in Afghanistan are high. The objective of this article is to assess whether - and if so how much - the armed conflict in Afghanistan has affected the application and interpretation of the principles of distinction, proportionality, and precaution - principles that form the core of legal rules pertaining to the conduct of hostilities.
This review addresses the functional organization of the mammalian cochlea under a comparative and evolutionary perspective. A comparison of the monotreme cochlea with that of marsupial and placental mammals highlights important evolutionary steps towards a hearing organ dedicated to process higher frequencies and a larger frequency range than found in non-mammalian vertebrates. Among placental mammals, there are numerous cochlear specializations which relate to hearing range in adaptation to specific habitats that are superimposed on a common basic design. These are illustrated by examples of specialist ears which evolved excellent high frequency hearing and echolocation (bats and dolphins) and by the example of subterranean rodents with ears devoted to processing low frequencies. Furthermore, structural functional correlations important for tonotopic cochlear organization and predictions of hearing capabilities are discussed.
Target-distance computation by cortical neurons sensitive to echo delay is an essential characteristic of the auditory system of insectivorous bats. To assess if functional requirements such as detection of small insects versus larger stationary surfaces of plants are reflected in cortical properties, we compare delay-tuned neurons in a frugivorous (C. perspicillata, CP) and an insectivorous (P. parnellii, PP) bat species that belong to related families within the superfamily of Noctilionoidea. The bandwidth and shape of delay-tuning curves and the range of characteristic delays are similar in both species and hence are not related to different echolocation strategies. Most units respond at 2-6 ms echo delay with most sensitive thresholds of 20-30 dB SPL. In CP, units tuned to delays > 12 ms are slightly more abundant and are more sensitive than in PP. All delay-tuned neurons in CP reliably respond to single pure-tone stimuli, whereas such responses are only observed in 49% of delay-tuned units in PP. The cortical representation of echo delay (chronotopy) covers a larger area in CP but is less precise than described in PP. Since chronotopy is absent in certain other insectivorous bat species, it is open if these differences in topography are related to echolocation behaviour.
Lissencephaly is a severe brain developmental disease in human infants, which is usually caused by mutations in either of two genes, LIS1 and DCX. These genes encode proteins interacting with both the microtubule and the actin systems. Here, we review the implications of data on Dictyostelium LIS1 for the elucidation of LIS1 function in higher cells and emphasize the role of LIS1 and nuclear envelope proteins in nuclear positioning, which is also important for coordinated cell migration during neocortical development. Furthermore, for the first time we characterize Dictyostelium DCX, the only bona fide orthologue of human DCX outside the animal kingdom. We show that DCX functionally interacts with LIS1 and that both proteins have a cytoskeleton-independent function in chemotactic signaling during development. Dictyostelium LIS1 is also required for proper attachment of the centrosome to the nucleus and, thus, nuclear positioning, where the association of these two organelles has turned out to be crucial. It involves not only dynein and dynein-associated proteins such as LIS1 but also SUN proteins of the nuclear envelope. Analyses of Dictyostelium SUN1 mutants have underscored the importance of these proteins for the linkage of centrosomes and nuclei and for the maintenance of chromatin integrity. Taken together, we show that Dictyostelium amoebae, which provide a well-established model to study the basic aspects of chemotaxis, cell migration and development, are well suited for the investigation of the molecular and cell biological basis of developmental diseases such as lissencephaly.
We have localized TACC to the microtubule-nucleating centrosomal corona and to microtubule plus ends. Using RNAi we proved that Dictyostelium TACC promotes microtubule growth during interphase and mitosis. For the first time we show in vivo that both TACC and XMAP215 family proteins can be differentially localized to microtubule plus ends during interphase and mitosis and that TACC is mainly required for recruitment of an XMAP215-family protein to interphase microtubule plus ends but not for recruitment to centrosomes and kinetochores. Moreover, we have now a marker to study dynamics and behavior of microtubule plus ends in living Dictyostelium cells. In a combination of live cell imaging of microtubule plus ends and fluorescence recovery after photobleaching (FRAP) experiments of GFP-alpha-tubulin cells we show that Dictyostelium microtubules are dynamic only in the cell periphery, while they remain stable at the centrosome, which also appears to harbor a dynamic pool of tubulin dimers.
Dieses Lehrvideo zeigt aus der Perspektive einer Übertischkamera den fiktiven informatischen Hochleister Tom bei der Bearbeitung eines schwierigen Färbeproblems. Dabei kann man die fortlaufend von ihm angefertigten Skizzen beobachten und seine Gedankengänge genau verfolgen. Denn dieser Problemlöser arbeitet unter lautem Denken, d. h. er spricht alle seine Gedankengänge laut aus. Man kann zuschauen, wie Tom zunächst die Aufgabe analysiert und die dadurch gewonnenen Erkenntnisse in der anschließenden Problembearbeitung gewinnbringend einsetzt. Der Zuschauer wird dabei aber nicht allein gelassen. An markanten Stellen wird das Video unterbrochen und Toms zurückliegende Aktivitäten mit animierten Bildsequenzen vertiefend erläutert. Schwache Problemlöser können so die in Unterricht oder Vorlesung vermittelten Kenntnisse über informatische Problemlösemethoden vertiefen und deren Anwendung durch einen starken Problemlöser beispielhaft miterleben. Entstanden ist dieses Video aus einer Vergleichsstudie mit starken und schwachen Problemlösern. Die effizienten Methoden der Hochleister wurden didaktisch aufgearbeitet und zu einem modellhaften Problemlöseprozess zusammengesetzt. Der wissenschaftliche Hintergrund des Lehrvideos wird durch eine als Bildergeschichte erzählte Rahmenhandlung verdeutlicht. Bei Erstsemesterstudenten der Informatik, denen dieses Video zur Bewertung vorgespielt wurde, fand dieses Konzept große Zustimmung. Tenor: Unterhaltsam und lehrreich zugleich.
Functional analyses of microtubule and centrosome-associated proteins in Dictyostelium discoideum
(2011)
Understanding the role of microtubule-associated proteins is the key to understand the complex mechanisms regulating microtubule dynamics. This study employs the model system Dictyostelium discoideum to elucidate the role of the microtubule-associated protein TACC (Transforming acidic coiled-coil) in promoting microtubule growth and stability. Dictyostelium TACC was localized at the centrosome throughout the entire cell cycle. The protein was also detected at microtubule plus ends, however, unexpectedly only during interphase but not during mitosis. The same cell cycle-dependent localization pattern was observed for CP224, the Dictyostelium XMAP215 homologue. These ubiquitous MAPs have been found to interact with TACC proteins directly and are known to act as microtubule polymerases and nucleators. This work shows for the first time in vivo that both a TACC and XMAP215 family protein can differentially localize to microtubule plus ends during interphase and mitosis. RNAi knockdown mutants revealed that TACC promotes microtubule growth during interphase and is essential for proper formation of astral microtubules in mitosis. In many organisms, impaired microtubule stability upon TACC depletion was explained by the failure to efficiently recruit the TACC-binding XMAP215 protein to centrosomes or spindle poles. By contrast, fluorescence recovery after photobleaching (FRAP) analyses conducted in this study demonstrate that in Dictyostelium recruitment of CP224 to centrosomes or spindle poles is not perturbed in the absence of TACC. Instead, CP224 could no longer be detected at the tips of microtubules in TACC mutant cells. This finding demonstrates for the first time in vivo that a TACC protein is essential for the association of an XMAP215 protein with microtubule plus ends. The GFP-TACC strains generated in this work also turned out to be a valuable tool to study the unusual microtubule dynamics in Dictyostelium. Here, microtubules exhibit a high degree of lateral bending movements but, in contrast most other organisms, they do not obviously undergo any growth or shrinkage events during interphase. Despite of that they are affected by microtubuledepolymerizing drugs such as thiabendazole or nocodazol which are thought to act solely on dynamic microtubules. Employing 5D-fluorescence live cell microscopy and FRAP analyses this study suggests Dictyostelium microtubules to be dynamic only in the periphery, while they are stable at the centrosome. In the recent years, the identification of yet unknown components of the Dictyostelium centrosome has made tremendous progress. A proteomic approach previously conducted by our group disclosed several uncharacterized candidate proteins, which remained to be verified as genuine centrosomal components. The second part of this study focuses on the investigation of three such candidate proteins, Cenp68, CP103 and the putative spindle assembly checkpoint protein Mad1. While a GFP-CP103 fusion protein could clearly be localized to isolated centrosomes that are free of microtubules, Cenp68 and Mad1 were found to associate with the centromeres and kinetochores, respectively. The investigation of Cenp68 included the generation of a polyclonal anti-Cenp68 antibody, the screening for interacting proteins and the generation of knockout mutants which, however, did not display any obvious phenotype. Yet, Cenp68 has turned out as a very useful marker to study centromere dynamics during the entire cell cycle. During mitosis, GFP-Mad1 localization strongly resembled the behavior of other Mad1 proteins, suggesting the existence of a yet uncharacterized spindle assembly checkpoint in Dictyostelium.
Die vorliegende Arbeit betrachtet Partizipation aus einer interaktionalen Perspektive und nimmt zunächst eine interdisziplinär orientierte Begriffsbestimmung vor. Daran anschließend werden anhand einer Längsschnittstudie Entwicklungsbedingungen sozialer Partizipationskompetenzen im Vorschulalter untersucht und Förderempfehlungen abgeleitet. Partizipation (Teilhabe) soll in Kontexten wie Schule oder Arbeitswelt Entscheidungen demokratisch legitimieren, individuelle Ressourcen ausschöpfen und soziale Grundbedürfnisse des Menschen befriedigen. Ein engeres Verständnis von sozialer Partizipation aus einer interaktionalen Perspektive erfordert die Beteiligung an den Aktivitäten einer bereits bestehenden Gruppe und die Aushandlung eigener Interessen innerhalb dieser Gruppe und wird in der Arbeit als Prozess anhand dreier Phasen (Anbahnung, Projektierung und Realisierung) dargestellt. Im Vorschulalter werden wichtige Grundsteine für eine erfolgreiche soziale Entwicklung und für den Erwerb von sozialen Partizipationskompetenzen gelegt. In der vorliegenden Arbeit wurden deshalb die Zusammenhänge und Wechselwirkungen zwischen sozialen Partizipationskompetenzen (Bereitschaft und Fähigkeit) und (1) kognitiven Leistungsparametern (Intelligenz und Perspektivenübernahme), (2) dem Selbstkonzept und (3) dem Konfliktverhalten (Aggression und Schüchternheit) mit 5- bis 7jährigen Kindern mit Hilfe von Kreuzpfadanalysen untersucht. Zudem wurde die Situationsgebundenheit sozialer Partizipationskompetenzen und die Bedeutung struktureller Parameter der Familie und der Kindertageseinrichtung auf explorativer Ebene analysiert. Die Stichprobe bestand aus 334 Kindern (51,5 % weiblich, Altersdurchschnitt zum ersten Messzeitpunkt 5,4 Jahre) in 71 Kindergartengruppen in 21 Kindertageseinrichtungen in vier Bundesländern. Die längsschnittliche Datenanalyse basiert auf drei Messzeitpunkten. Die Ergebnisse zeigen, dass soziale Partizipationskompetenzen über verschiedene Situationen hinweg bedeutsame, aber nur mäßig ausgeprägte, Zusammenhänge aufweisen. Hohe Ausprägungen kognitiver Leistungsparameter gehen mit hohen Erziehereinschätzungen sozialer Partizipationskompetenzen einher. Über die Zusammenhänge hinaus zeigen sich im Längsschnitt bedeutsame Wechselwirkungen zwischen kognitiver Entwicklung und sozialen Partizipationskompetenzen im Vorschulalter. Selbsteinschätzungen zur eigenen Kompetenz hängen im Vorschulalter hingegen nur gering mit Erziehereinschätzungen der sozialen Partizipationskompetenz zusammen. Im Längsschnitt zeigt sich, dass junge Kinder bei der Beurteilung ihrer Kompetenzen zunächst auf soziale Partizipationserfolge zurückgreifen. Später hingegen scheint der Partizipationserfolg dann umgekehrt eher durch das Selbstbild bedingt zu sein. Geringe Partizipationskompetenzen gehen mit hohen Erziehereinschätzungen beim aggressiven (schwach signifikant) und schüchternen Verhalten (mäßig signifikant) einher. Hinsichtlich der Aggression und des schüchternen Verhaltens ergaben sich längsschnittlich betrachtet nur schwache Wechselwirkungen zur sozialen Partizipationskompetenz. Die Kumulation familiärer Belastungssituationen (z.B. Krankheit und akute Finanznot) stellen eine größere Bedrohung für die kindliche Entwicklung dar als der sozio-ökonomische Status der Familie. Mit Blick auf die Förderung sozialer Partizipationskompetenzen lassen sich die Ergebnisse mit einem sozial-konstruktivistischen Ansatz verbinden. Dessen Ziel ist es, intra- und interpersonelle Konflikte auszulösen, deren erfolgreiche Bewältigung produktive Lernprozesse auf kognitiver, emotionaler und behavioraler Ebene anstoßen.
Dutch allows for variation as to whether the first position in the sentence is occupied by the subject or by some other constituent, such as the direct object. In particular situations, however, this commonly observed variation in word order is ‘frozen’ and only the subject appears in first position. We hypothesize that this partial freezing of word order in Dutch can be explained from the dependence of the speaker’s choice of word order on the hearer’s interpretation of this word order. A formal model of this interaction between the speaker’s perspective and the hearer’s perspective is presented in terms of bidirectional Optimality Theory. Empirical predictions of this model regarding the interaction between word order and definiteness are confirmed by a quantitative corpus study.
Due to their optical and electro-conductive attributes, carbazole derivatives are interesting materials for a large range of biosensor applications. In this study, we present the synthesis routes and fluorescence evaluation of newly designed carbazole fluorosensors that, by modification with uracil, have a special affinity for antiretroviral drugs via either Watson–Crick or Hoogsteen base pairing. To an N-octylcarbazole-uracil compound, four different groups were attached, namely thiophene, furane, ethylenedioxythiophene, and another uracil; yielding four different derivatives. Photophysical properties of these newly obtained derivatives are described, as are their interactions with the reverse transcriptase inhibitors such as abacavir, zidovudine, lamivudine and didanosine. The influence of each analyte on biosensor fluorescence was assessed on the basis of the Stern–Volmer equation and represented by Stern–Volmer constants. Consequently we have demonstrated that these structures based on carbazole, with a uracil group, may be successfully incorporated into alternative carbazole derivatives to form biosensors for the molecular recognition of antiretroviral drugs.
Background
More than in other domains the heterogeneous services world in bioinformatics demands for a methodology to classify and relate resources in a both human and machine accessible manner. The Semantic Web, which is meant to address exactly this challenge, is currently one of the most ambitious projects in computer science. Collective efforts within the community have already led to a basis of standards for semantic service descriptions and meta-information. In combination with process synthesis and planning methods, such knowledge about types and services can facilitate the automatic composition of workflows for particular research questions.
Results
In this study we apply the synthesis methodology that is available in the Bio-jETI workflow management framework for the semantics-based composition of EMBOSS services. EMBOSS (European Molecular Biology Open Software Suite) is a collection of 350 tools (March 2010) for various sequence analysis tasks, and thus a rich source of services and types that imply comprehensive domain models for planning and synthesis approaches. We use and compare two different setups of our EMBOSS synthesis domain: 1) a manually defined domain setup where an intuitive, high-level, semantically meaningful nomenclature is applied to describe the input/output behavior of the single EMBOSS tools and their classifications, and 2) a domain setup where this information has been automatically derived from the EMBOSS Ajax Command Definition (ACD) files and the EMBRACE Data and Methods ontology (EDAM). Our experiments demonstrate that these domain models in combination with our synthesis methodology greatly simplify working with the large, heterogeneous, and hence manually intractable EMBOSS collection. However, they also show that with the information that can be derived from the (current) ACD files and EDAM ontology alone, some essential connections between services can not be recognized.
Conclusions
Our results show that adequate domain modeling requires to incorporate as much domain knowledge as possible, far beyond the mere technical aspects of the different types and services. Finding or defining semantically appropriate service and type descriptions is a difficult task, but the bioinformatics community appears to be on the right track towards a Life Science Semantic Web, which will eventually allow automatic service composition methods to unfold their full potential.
Phase behaviour and the mesoscopic structure of zwitanionic surfactant mixtures based on the zwitterionic tetradecyldimethylamine oxide (TDMAO) and anionic lithium perfluoroalkyl carboxylates have been investigated for various chain lengths of the perfluoro surfactant with an emphasis on spontaneously forming vesicles. These mixtures were studied at a constant total concentration of 50 mM and characterised by means of dynamic light scattering (DLS), electric conductivity, small-angle neutron scattering (SANS), viscosity, and cryo-scanning electron microscopy (Cryo-SEM). No vesicles are formed for relatively short perfluoro surfactants. The extension of the vesicle phase becomes substantially larger with increasing chain length of the perfluoro surfactant, while at the same time the size of these vesicles increases. Head group interactions in these systems play a central role in the ability to form vesicles, as already protonating 10 mol% of the TDMAO largely enhances the propensity for vesicle formation. The range of vesicle formation in the phase diagram is not only substantially enlarged but also extends to shorter perfluoro surfactants, where without protonation no vesicles would be formed. The size and polydispersity of the vesicles are related to the chain length of the perfluoro surfactant, the vesicles becoming smaller and more monodisperse with increasing perfluoro surfactant chain length. The ability of the mixed systems to form well-defined unilamellar vesicles accordingly can be controlled by the length of the alkyl chain of the perfluorinated surfactant and depends strongly on the charge conditions, which can be tuned easily by pH-variation.
The enzyme diisopropyl fluorophosphatase (DFPase) from the squid Loligo vulgaris is of great interest because of its ability to catalyze the hydrolysis of highly toxic organophosphates. In this work, the enzyme structure in solution (native state) was studied by use of different scattering methods. The results are compared with those from hydrodynamic model calculations based on the DFPase crystal structure. Bicontinuous microemulsions made of sugar surfactants are discussed as host systems for the DFPase. The microemulsion remains stable in the presence of the enzyme, which is shown by means of scattering experiments. Moreover, activity assays reveal that the DFPase still has high activity in this complex reaction medium. To complement the scattering experiments cryo-SEM was also employed to study the microemulsion structure.
Cryo-electron microscopy, atomic force microscopy, and light microscopy investigations provide experimental evidence that amphiphilic emulsion copolymerization particles change their morphology in dependence on concentration. The shape of the particles is spherical at solids content above 1%, but it changes to rod-like, ring-like, and web-like structures at lower concentrations. In addition, the shape and morphology of these particles at low concentrations are not fixed but very flexible and vary with time between spheres, flexible pearlnecklace structures, and stretched rods.
Using cationic polyelectrolytes with different molecular architectures, only hyperbranched poly(ethyleneimine) with maltose shell is suited to tailor the morphological transformation of anionic vesicles into tube-like networks. The interaction features of those materials partly mimic biological features of tubular proteins in nature.