Refine
Year of publication
- 2011 (2047) (remove)
Document Type
- Article (1322)
- Doctoral Thesis (289)
- Monograph/Edited Volume (165)
- Review (96)
- Postprint (67)
- Conference Proceeding (29)
- Other (21)
- Master's Thesis (15)
- Part of Periodical (13)
- Preprint (9)
Language
Keywords
- Deutschland (17)
- Bürgerschaft (16)
- Germany (16)
- Integration (16)
- International Politics (16)
- Internationale Politik (16)
- Migration (16)
- Politische Theorie (16)
- Afghanistan (15)
- Friedens- und Konfliktforschung (14)
Institute
- Institut für Biochemie und Biologie (242)
- Institut für Physik und Astronomie (187)
- Institut für Chemie (176)
- Institut für Geowissenschaften (141)
- Institut für Romanistik (141)
- Wirtschaftswissenschaften (104)
- Department Psychologie (79)
- Sozialwissenschaften (73)
- MenschenRechtsZentrum (72)
- WeltTrends e.V. Potsdam (70)
Fundraising interdisziplinär : ein Beitrag zur Erneuerung der Kultur gemeinwohlbezogenen Gebens
(2011)
There has been a substantial increase in the percentage for publications with co-authors located in departments from different countries in 12 major journals of psychology. The results are evidence for a remarkable internationalization of psychological research, starting in the mid 1970s and increasing in rate at the beginning of the 1990s. This growth occurs against a constant number of articles with authors from the same country; it is not due to a concomitant increase in the number of co-authors per article. Thus, international collaboration in psychology is obviously on the rise.
Bei der Entdeckung der Glutathionperoxidase-2 (GPx2) wurde zunächst davon ausgegangen, dass die Funktion dieses Enzyms im Kryptengrund des Colons einzig in der Reduktion von H2O2 besteht. Im Laufe der weiteren Erforschung zeigte sich, dass GPx2 auch in verschiedenen Tumorgeweben vermehrt exprimiert wird. Dabei wird diskutiert, ob die Wirkung von GPx2 im Tumor eher als pro- oder als antikarzinogen einzustufen ist. Mehrere Experimente in vitro und in vivo zeigten antiinflammatorische Eigenschaften der GPx2. Aufgrund dieser Befunde wird derzeit über weitere Funktionen der GPx2 spekuliert. In dieser Arbeit wurde die physiologische Funktion von GPx2 näher erforscht, dazu wurden Wildtyp- und GPx2-Knockout-Mäuse in Hinblick auf Veränderungen der Enzymexpression und der Colonmorphologie untersucht. Es wurden drei verschiedene Selendiäten verfüttert: selenarmes, selenadäquates und selensupplementiertes Futter. Unter physiologischen Bedingungen ist am Kryptengrund des Colons, innerhalb der proliferierenden Zone, die Mitoserate am höchsten. Der Großteil der apoptotischen Zellen ist hingegen an der Kryptenspitze vorzufinden. Durch den Knockout von GPx2 kam es zu einer signifikanten Erhöhung der Apoptoserate am Kryptengrund. Dabei war der größte Effekt auf selenarmem Futter zu verzeichnen. Hierbei wurde sogar eine Veränderung der Colonmorphologie dokumentiert, da die Verschiebung der Proliferationszone in Richtung Kryptenspitze eine Verlängerung der Krypten nach sich zog. Im Wildtyp wurden keine Apoptosen im Kryptengrund detektiert. GPx1 wird unter physiologischen Bedingungen im Gegensatz zur GPx2 in der Kryptenspitze exprimiert und ist im Selenmangel nicht mehr detektierbar. Der Knockout von GPx2 erhöhte die GPx1-Expression im Kryptengrund auf allen drei Selendiäten. Diese Überexpression von GPx1 am Kryptengrund soll vermutlich den Verlust von GPx2 an dieser Stelle kompensieren. Da jedoch dort die massive Apoptoserate detektiert wurde, kann die GPx1 nicht die komplette Funktion von GPx2 kompensieren. Diese Ergebnisse deuten darauf hin, dass die Funktion von GPx2 nicht nur in der Reduktion von H2O2 liegt. Vielmehr kann eine Rolle bei der Aufrechterhaltung der Homöostase von Zellen postuliert werden. Ein weiterer Bestandteil dieser Arbeit war die Klärung der Frage, welchen Einfluss GPx2 auf die entzündungsassoziierte Colonkarzinogenese ausübt. In dem hierfür verwendeten AOM/DSS-Model wird der karzinogene Prozess durch Entzündung vorangetrieben. Es erfolgte sowohl im Wildtyp als auch im GPx2-Knockout zum einen die Bewertung des Entzündungsstatus des Colons und zum anderen wurde die Anzahl von ACF und Tumoren verglichen. Das Colon im GPx2-Knockout war wesentlich stärker entzündet als im Wildtyp. Diese Ergebnisse bestätigen die für die GPx2 postulierte antiinflammatorische Funktion. Normalerweise führt eine Erhöhung der Mitoseanzahl zur Regeneration des entzündeten Gewebes. Jedoch beeinflusst der Verlust von GPx2 vermutlich den Ablauf der Entzündung, indem beispielsweise die Regeneration des Gewebes durch die enorm hohe Apoptoserate am Kryptengrund verlangsamt wird. Des Weiteren hatten sich im GPx2-Knockout tendenziell mehr Tumore entwickelt. Somit korrelierte die Entzündung des Colons mit der Entwicklung von Tumoren. Der Verlust von GPx2 begünstigte vermutlich sowohl die Tumorinitiation als auch die Tumorprogression. Allerdings stimulierte die Expression von GPx2 ebenfalls das Tumorwachstum. Es kann geschlussfolgert werden, dass eine adäquate GPx2-Expression vor Entzündung schützt und somit das Risiko für Colonkrebs senkt. Ob GPx2 aber insgesamt pro- oder antikarzinogen wirkt, hängt vermutlich vom Stadium des Colonkarzinogenese ab.
Daß die Rhetorik für die Literatur und Wissenschaft der Frühen Neuzeit von größter Bedeu-tung ist, gehört seit langem zum Grundbestand der Forschung. Trotzdem ist praktisch keine der großen Rhetoriken dieser Zeit in einer neuen Ausgabe oder gar Übersetzung zugänglich. Die vorliegende Ausgabe ist ein erster Schritt, dieser unbefriedigenden Situation Abhilfe zu verschaffen, indem sie Philipp Melanchthons Elementa rhetorices zum ersten Mal in einer kritischen Ausgabe und Übersetzung zur Verfügung stellt. Neben den De copia verborum ac rerum des Erasmus sind Melanchthon Elementa rhetorices wahrscheinlich das meistgedruckte Lehrbuch des 16. Jahrhunderts. 1531 zum ersten Mal erschienen und bis 1539 mehrmals überarbeitet und erweitert, erscheinen sie bis zum Ende des Jahrhunderts in über hundert Ausgaben. An zahllosen Schulen und Universitäten im protestantischen Raum war ihre Lektüre für Generationen von Schülern Pflicht, die Dichter des 17. Jahrhunderts sind mit ihr zur Schule gegangen. Die vorliegende Ausgabe ist nicht nur die erste kritische Ausgabe des Textes, sondern auch die erste vollständige Übersetzung. Die bisher unbekannten Varianten der Ausgaben 1531, 1532 und 1536 sind in einem Variantenverzeichnis erfaßt. Der teilweise schwer zugänglichen Text wird durch einen umfangreichen Kommentar, ein Nachwort und ein Glossar erschlossen. Dabei wird nicht nur der Text selbst in der Form wiedergegeben, in der er dem Leser des 16. Jahrhunderts vorlag, sondern auch der den Elementa rhetorices ursprünglich beigegebene Anhang. Dieser Anhang umfaßt neben drei Briefen von Seneca und Plinius d. J. vor allem die "Gegensätzlichen Briefe" Giovanni Picos della Mirandola und Franz Burchards, einem Schüler Melanchthons. Burchard übernimmt hier die Verteidigung der Rhetorik gegen den über fünfzig Jahre zuvor geführten, scharfen und spöttischen Angriff Picos della Mirandola, der schnell zu einer gewissen Berühmtheit gelangt war. Melanchthon hielt die Verteidigung Burchards nicht nur der Aufnahme in sein Lehrbuch für würdig, sondern verfaßte auch umfangreiche, interpretierende Marginalien zu beiden Briefen. Indem diese Marginalien von den Herausgebern der Gesamtausgabe von Melanchthons Werken nicht aufgenommen wurden, bietet die Ausgabe mit diesen Marginalien auch die erste Edition eines bisher unbekannten Textes.
Die Arbeit befasst sich theoretisch und empirisch mit der so genannten Public Service Motivation (PSM) und ihrem Zusammenhang zu anderen psychologischen Motivationstheorien. Die Public Service Motivation geht davon aus, dass öffentlich Beschäftigte unter anderem dadurch motiviert sind, dass sie in ihrer Arbeit einen Dienst am Gemeinwohl sehen. Auf Basis einer empirischen Erhebung konnte dieses Konstrukt auch für Beschäftigte in Deutschland nachgewiesen und der Einfluss soziodemographischer Variablen bestätigt werden. Darüber hinaus gibt die Arbeit erste Hinweise auf Zusammenhänge zu verschiedenen Prozesstheorien der Motivation. Empirisch zeigt sich vor allem zur Gleichheitstheorie und dem darauf aufbauenden Equity Sensitivity Construct ein starker Zusammenhang.
Multiple Imputation hat sich in den letzten Jahren als adäquate Methode zum Umgang mit fehlenden Werten erwiesen und etabliert. Das gilt zumindest für die Theorie, denn im Angesicht mangelnder anwendungsbezogener Erläuterungen und Einführungen verzichten in der Praxis viele Sozialwissenschaftler auf diese notwendige Datenaufbereitung. Trotz (oder vielleicht auch wegen) der stetig fortschreitenden Weiterentwicklung der Programme und Optionen zur Umsetzung Multipler Imputationen, sieht sich der Anwender mit zahlreichen Herausforderungen konfrontiert, für die er mitunter nur schwer Lösungsansätze findet. Die Schwierigkeiten reichen von der Analyse und Aufbereitung der Zielvariablen, über die Software-Entscheidung, die Auswahl der Prädiktoren bis hin zur Modell-Formulierung und Ergebnis-Evaluation. In diesem Beitrag wird die Funktionsweise und Anwendbarkeit Multipler Imputationen skizziert und es wird eine Herangehensweise entwickelt, die sich in der schrittweisen Umsetzung dieser Methode als nützlich erwiesen hat – auch für Einsteiger. Es werden konkrete potenzielle Schwierigkeiten angesprochen und mögliche Problemlösungen diskutiert; vor allem die jeweilige Beschaffenheit der fehlenden Werte steht hierbei im Vordergrund. Der Imputations-Prozess und alle mit ihm verbundenen Arbeitsschritte werden anhand eines Anwendungsbeispiels – der Multiplen Imputation des Gesamtvermögens reicher Haushalte – exemplarisch illustriert.
Den Krieg um Afghanistan hat der Westen verloren – wieder einmal. Die Frage des Abzugs bestimmt die außen- und sicherheitspolitische Agenda, nicht nur in Washington D.C. und Berlin. Ziel ist, das "Fiasko Afghanistan" möglichst glimpflich enden zu lassen – aber wie? Die Frage hat auch 2011 nicht an Aktualität eingebüßt. Kenner der Region und außenpolitische Experten diskutieren im vorliegenden WeltTrends Papier die Ausgangslage des Afghanistan-Komplexes und analysieren Abzugsstrategien – klar, kontrovers, pointiert.
Die Arbeit beschreibt die humanistische Reform des 'Triviums', also der grammatischen, dialektischen (logisch-argumentativen) und rhetorischen Ausbildung, wie sie sich in dem Zeitraum von 1480 bis 1540 an Schulen und Universitäten durchsetzte. Die Arbeit ist dabei sowohl historisch wie systematisch angelegt, indem sie die Lehrinhalte der jeweiligen Kunst an ausgewählten Lehrbüchern darstellt, gleichzeitig aber unter ständigem Rückbezug auf die scholastisch-mittelalterliche Tradition die humanistischen Neuerungen davon abgrenzt. Im Zentrum stehen Werke von Lorenzo Valla, Rudolf Agricola, Erasmus, Juan Luis Vives und Philipp Melanchthon. Es stellt sich dabei heraus, daß die humanistischen Neuerungen in erster Linie die Praxisbezogenheit des Triviums betreffen, erst aus dieser ergeben sich dann die inhaltlichen Neuerungen. Unter Praxisbezogenheit ist dabei sowohl die Ableitung von Grammatik, Dialektik und Rhetorik aus der Beobachtung ihrer immer schon vorgängigen Anwendung zu verstehen, als auch ihre Anwendung zum Zweck der sprachlichen, argumentativ-logischen und rhetorischen Analyse. D.h. das grammatische, dialektische und rhetorische Regelwerk wird auf deskriptivem Wege gewonnen, um wiederum in der Analyse auf die Praxis zurückgewendet zu werden. Dieser Analyse werden dabei von alltäglichen Äußerungen, politischen, religiösen oder sonstigen sachlichen Texten bis hin zu literarischen Werken alles unterzogen. In einem letzten Teil stellt die Arbeit drei solcher Analysen vor und versucht sich schließlich selbst an einer dialektisch-rhetorischen Analyse dreier dramatischer Bearbeitungen der Parabel vom verlorenen Sohn.
Öffentliche Unternehmen werden in Adäquation zum wirtschaftlichen und politischen Verständnis an Hand des Finanz- und Personalstatistikgesetzes operationalisierbar definiert und sowohl gegenüber öffentlichen Behörden als auch gegenüber privaten Unternehmen abgegrenzt. Dabei wird gezeigt, dass keine Deckungsgleichheit, aber eine stückweise Überlappung mit dem Sektor Staat besteht. Dadurch gewinnt ein Teil der öffentlichen Unternehmen Bedeutung für die Volkswirtschaftliche Gesamtrechnung, insbesondere für den öffentlichen Schuldenstand und damit für die Konvergenzkriterien im Rahmen der Wirtschafts- und Währungsunion. Die amtliche Statistik gewinnt die Daten für die Statistik öffentlicher Unternehmen in Totalerhebung aus den Jahresabschlüssen dieser Unternehmen einschließlich ihrer Gewinn und Verlustrechnung. Die Statistik öffentlicher Unternehmen übertrifft damit in ihrer Ausführlichkeit und Tiefe die meisten anderen Fachstatistiken. Dem steht der Nachteil der relativ späten Verfügbarkeit gegenüber. Der Wissenschaft steht die Statistik in Form einer formal anonymisierten Datei an Wissenschaftlerarbeitsplätzen in den Forschungsdatenzentren der Statistischen Ämter des Bundes und der Länder zur Verfügung. Der Anonymisierungsprozess bedeutet eine weitere Verzögerung der Verfügbarkeit der Daten und steht zusammen mit strengen Geheimhaltungsvorschriften in den Forschungsdatenzentren im Widerspruch zur gebotenen Transparenz und der vorgeschriebenen Offenlegung der Bilanzen im öffentlichen Sektor.
Die statistische Analyse der Ertragslage öffentlicher Unternehmen bringt Informationen über die Ertragskraft dieser Unternehmensgruppe. Die erforderlichen Kennzahlen werden den Jahresabschlussbilanzen entnommen, die die amtliche Statistik in öffentlichen Unternehmen erhebt. Zunächst werden geeigneten Kennzahlen ausgewählt und definiert, für die einzelnen Unternehmen aufbereitet sowie für die Gesamtheit öffentlicher Unternehmen und ihre Klassen aggregiert. Sie werden in ihrer Entwicklung über den Zeitraum von 1999 bis 2006 analysiert und – unter starken Vorbehalten – mit analogen Kennzahlen in der privaten Wirtschaft verglichen. Die Vorbehalte ergeben sich daraus, dass sich Ziele und Bedingungen im öffentlichen Unternehmensbereich häufig von denen der privaten Wirtschaft unterscheiden, z. B. durch die stärkere Orientierung an öffentlichen Aufgaben als an betriebswirtschaftlicher Effizienz, durch die eingeschränkte Veräußerbarkeit des Vermögens und durch das geringere Risiko einer Insolvenz. Öffentliche Unternehmen haben im Mittel wegen der Spezifik ihrer Aufgaben und politisch determinierter Preise einen geringeren Umsatz als private Unternehmen. Im Vergleich zu privaten sind öffentliche Unternehmen auch durch eine höhere Zinselastizität, die mit einem hohen Verschuldungsgrad zusammenhängt, und eine höhere Abschreibungsintensität gekennzeichnet. Die letzte ist auf das umfangreiche öffentliche Vermögen zurückzuführen. Im Großen und Ganzen unterstreicht die statistische Analyse der Ertragslage die enge Verflechtung zwischen öffentlichen Unternehmen und öffentlichen Haushalten.
This paper offers empirical evidence on the power of Sornette et al's [2001] model of bubbles and crashes regarding the German stock market between 1960 and 2009. We identify relevant time periods and describe them with the function given by Sornette et al's model. Our results show some evidence in predicting crashes with the understanding of logarithmic periodic structures that are hidden in the stock price trajectories. It was shown that for the DAX most of the relevant parameters determining the shape of the logarithmic periodic structures are lying in the expected interval researched by Sornette et al. Further more the paper implicitly shows that the point of time of former crashes can be predicted with the presented formula. We conclude that the concept of financial time series conceived as purely random objects should be generalised as to admit complexity.
The East African Plateau provides a spectacular example of geodynamic plateau uplift, active continental rifting, and associated climatic forcing. It is an integral part of the East African Rift System and has an average elevation of approximately 1,000 m. Its location coincides with a negative Bouguer gravity anomaly with a semi-circular shape, closely related to a mantle plume, which influences the Cenozoic crustal development since its impingement in Eocene-Oligocene time. The uplift of the East African Plateau, preceding volcanism, and rifting formed an important orographic barrier and tectonically controlled environment, which is profoundly influenced by climate driven processes. Its location within the equatorial realm supports recently proposed hypotheses, that topographic changes in this region must be considered as the dominant forcing factor influencing atmospheric circulation patterns and rainfall distribution. The uplift of this region has therefore often been associated with fundamental climatic and environmental changes in East Africa and adjacent regions. While the far-reaching influence of the plateau uplift is widely accepted, the timing and the magnitude of the uplift are ambiguous and are still subject to ongoing discussion. This dilemma stems from the lack of datable, geomorphically meaningful reference horizons that could record surface uplift. In order to quantify the amount of plateau uplift and to find evidence for the existence of significant relief along the East African Plateau prior to rifting, I analyzed and modeled one of the longest terrestrial lava flows; the 300-km-long Yatta phonolite flow in Kenya. This lava flow is 13.5 Ma old and originated in the region that now corresponds to the eastern rift shoulders. The phonolitic flow utilized an old riverbed that once drained the eastern flank of the plateau. Due to differential erosion this lava flow now forms a positive relief above the parallel-flowing Athi River, which is mimicking the course of the paleo-river. My approach is a lava-flow modeling, based on an improved composition and temperature dependent method to parameterize the flow of an arbitrary lava in a rectangular-shaped channel. The essential growth pattern is described by a one-dimensional model, in which Newtonian rheological flow advance is governed by the development of viscosity and/or velocity in the internal parts of the lava-flow front. Comparing assessments of different magma compositions reveal that length-dominated, channelized lava flows are characterized by high effusion rates, rapid emplacement under approximately isothermal conditions, and laminar flow. By integrating the Yatta lava flow dimensions and the covered paleo-topography (slope angle) into the model, I was able to determine the pre-rift topography of the East African Plateau. The modeling results yield a pre-rift slope of at least 0.2°, suggesting that the lava flow must have originated at a minimum elevation of 1,400 m. Hence, high topography in the region of the present-day Kenya Rift must have existed by at least 13.5 Ma. This inferred mid-Miocene uplift coincides with the two-step expansion of grasslands, as well as important radiation and speciation events in tropical Africa. Accordingly, the combination of my results regarding the Yatta lava flow emplacement history, its location, and its morphologic character, validates it as a suitable “paleo-tiltmeter” and has thus to be considered as an important topographic and volcanic feature for the topographic evolution in East Africa.
Die Identifikation von Einflussfaktoren und deren Wirkungsrichtung auf die Kursentwicklung einer Aktie ist von großer Bedeutung für die Finanzmarktanalyse. Die wechselseitigen Zusammenhänge zwischen den Renditen spezifischer Aktien sind solche relevante Informationen. In diesem Beitrag werden die Interdependenzen von Aktienrenditen auf der Grundlage vektorautoregressiver (VAR)-Modelle für kleine, homogene Brachen- und Marktsegmente analysiert. Hierzu wurden die Renditen ausgewählter im Deutschen Aktienindex (DAX) notierter Unternehmen zu drei Branchensegmenten zusammengefasst. Darüber hinaus zeigt sich am Beispiel der Hoechst-Aktie, dass eine gemeinsame DAX-Notierung Einfluss auf das Beziehungsgeflecht der Renditen innerhalb eines Brachensegmentes nimmt.
Die Analyse der Finanzlage öffentlicher Unternehmen bringt Informationen über die Kapitalbereitstellung und die Liquidität dieser Unternehmen. Die erforderlichen Kennzahlen werden den Jahresabschlussbilanzen entnommen, die die amtliche Statistik in öffentlichen Unternehmen erhebt. Zunächst werden geeigneten Kennzahlen ausgewählt und definiert, für die einzelnen Unternehmen aufbereitet sowie für die Gesamtheit öffentlicher Unternehmen und ihre Klassen aggregiert. Sie werden in ihrer Entwicklung über den Zeitraum von 1999 bis 2006 analysiert und – unter starken Vorbehalten – mit analogen Kennzahlen in der privaten Wirtschaft verglichen. Die Vorbehalte ergeben sich daraus, dass sich Ziele und Bedingungen im öffentlichen Unternehmensbereich häufig von denen der privaten Wirtschaft unterscheiden, z. B. durch die stärkere Orientierung an öffentliche Aufgaben als an betriebswirtschaftliche Effizienz, durch die eingeschränkte Veräußerbarkeit des Vermögens und durch das geringere Risiko einer Insolvenz. Dank der Kapitalzuführungen von der öffentlichen Hand haben öffentliche Unternehmen in Deutschland höhere und zunehmende Eigenkapital- und Rücklagenquoten im Vergleich zu privaten Unternehmen, während ihr durchschnittlicher Innenfinanzierungsgrad und ihre Kapitalrückflussquote unter denen im privaten Sektor liegen. Insgesamt wird durch die Analyse der Finanzlage die enge Verflechtung zwischen öffentlichen Unternehmen und öffentlichen Haushalten unterstrichen.
This Thesis puts its focus on the physics of neutron stars and its description with methods of numerical relativity. In the first step, a new numerical framework the Whisky2D code will be developed, which solves the relativistic equations of hydrodynamics in axisymmetry. Therefore we consider an improved formulation of the conserved form of these equations. The second part will use the new code to investigate the critical behaviour of two colliding neutron stars. Considering the analogy to phase transitions in statistical physics, we will investigate the evolution of the entropy of the neutron stars during the whole process. A better understanding of the evolution of thermodynamical quantities, like the entropy in critical process, should provide deeper understanding of thermodynamics in relativity. More specifically, we have written the Whisky2D code, which solves the general-relativistic hydrodynamics equations in a flux-conservative form and in cylindrical coordinates. This of course brings in 1/r singular terms, where r is the radial cylindrical coordinate, which must be dealt with appropriately. In the above-referenced works, the flux operator is expanded and the 1/r terms, not containing derivatives, are moved to the right-hand-side of the equation (the source term), so that the left hand side assumes a form identical to the one of the three-dimensional (3D) Cartesian formulation. We call this the standard formulation. Another possibility is not to split the flux operator and to redefine the conserved variables, via a multiplication by r. We call this the new formulation. The new equations are solved with the same methods as in the Cartesian case. From a mathematical point of view, one would not expect differences between the two ways of writing the differential operator, but, of course, a difference is present at the numerical level. Our tests show that the new formulation yields results with a global truncation error which is one or more orders of magnitude smaller than those of alternative and commonly used formulations. The second part of the Thesis uses the new code for investigations of critical phenomena in general relativity. In particular, we consider the head-on-collision of two neutron stars in a region of the parameter space where two final states a new stable neutron star or a black hole, lay close to each other. In 1993, Choptuik considered one-parameter families of solutions, S[P], of the Einstein-Klein-Gordon equations for a massless scalar field in spherical symmetry, such that for every P > P⋆, S[P] contains a black hole and for every P < P⋆, S[P] is a solution not containing singularities. He studied numerically the behavior of S[P] as P → P⋆ and found that the critical solution, S[P⋆], is universal, in the sense that it is approached by all nearly-critical solutions regardless of the particular family of initial data considered. All these phenomena have the common property that, as P approaches P⋆, S[P] approaches a universal solution S[P⋆] and that all the physical quantities of S[P] depend only on |P − P⋆|. The first study of critical phenomena concerning the head-on collision of NSs was carried out by Jin and Suen in 2007. In particular, they considered a series of families of equal-mass NSs, modeled with an ideal-gas EOS, boosted towards each other and varied the mass of the stars, their separation, velocity and the polytropic index in the EOS. In this way they could observe a critical phenomenon of type I near the threshold of black-hole formation, with the putative solution being a nonlinearly oscillating star. In a successive work, they performed similar simulations but considering the head-on collision of Gaussian distributions of matter. Also in this case they found the appearance of type-I critical behaviour, but also performed a perturbative analysis of the initial distributions of matter and of the merged object. Because of the considerable difference found in the eigenfrequencies in the two cases, they concluded that the critical solution does not represent a system near equilibrium and in particular not a perturbed Tolmann-Oppenheimer-Volkoff (TOV) solution. In this Thesis we study the dynamics of the head-on collision of two equal-mass NSs using a setup which is as similar as possible to the one considered above. While we confirm that the merged object exhibits a type-I critical behaviour, we also argue against the conclusion that the critical solution cannot be described in terms of equilibrium solution. Indeed, we show that, in analogy with what is found in, the critical solution is effectively a perturbed unstable solution of the TOV equations. Our analysis also considers fine-structure of the scaling relation of type-I critical phenomena and we show that it exhibits oscillations in a similar way to the one studied in the context of scalar-field critical collapse.
In this work, the development of a new molecular building block, based on synthetic peptides derived from decorin, is presented. These peptides represent a promising basis for the design of polymer-based biomaterials that mimic the ECM on a molecular level and exploit specific biological recognition for technical applications. Multiple sequence alignments of the internal repeats of decorin that formed the inner and outer surface of the arch-shaped protein were used to develop consensus sequences. These sequences contained conserved sequence motifs that are likely to be related to structural and functional features of the protein. Peptides representative for the consensus sequences were synthesized by microwave-assisted solid phase peptide synthesis and purified by RP-HPLC, with purities higher than 95 mol%. After confirming the desired masses by MALDI-TOF-MS, the primary structure of each peptide was investigated by 1H and 2D NMR, from which a full assignment of the chemical shifts was obtained. The characterization of the peptides conformation in solution was performed by CD spectroscopy, which demonstrated that using TFE, the peptides from the outer surface of decorin show a high propensity to fold into helical structures as observed in the original protein. To the contrary, the peptides from the inner surface did not show propensity to form stable secondary structure. The investigation of the binding capability of the peptides to Collagen I was performed by surface plasmon resonance analyses, from which all but one of the peptides representing the inner surface of decorin showed binding affinity to collagen with values of dissociation constant between 2•10-7 M and 2.3•10-4 M. On the other hand, the peptides representative for the outer surface of decorin did not show any significant interaction to collagen. This information was then used to develop experimental demonstration for the binding capabilities of the peptides from the inner surface of decorin to collagen even when used in more complicated situations close to possible appications. With this purpose, the peptide (LRELHLNNN) which showed the highest binding affinity to collagen (2•10-7 M) was functionalized with an N-terminal triple bond in order to obtain a peptide dimer via copper(I)-catalyzed cycloaddition reaction with 4,4'-diazidostilbene-2,2'-disulfonic acid. Rheological measurements showed that the presence of the peptide dimer was able to enhance the elastic modulus (G') of a collagen gel from ~ 600 Pa (collagen alone) to ~ 2700 Pa (collagen and peptide dimer). Moreover, it was shown that the mechanical properties of a collagen gel can be tailored by using different molar ratios of peptide dimer respect to collagen. The same peptide, functionalized with the triple bond, was used to obtain a peptide-dye conjugate by coupling it with N-(5'-azidopentanoyl)-5-aminofluorescein. An aqueous solution (5 vol% methanol) of the peptide dye conjugate was injected into a collagen and a hyaluronic acid (HA) gel and images of fluorescence detection showed that the diffusion of the peptide was slower in the collagen gel compared to the HA gel. The third experimental demonstration was gained using the peptide (LSELRLHNN) which showed the lower binding affinity (2.3•10-4 M) to collagen. This peptide was grafted to hyaluronic acid via EDC-chemistry, with a degree of functionalization of 7 ± 2 mol% as calculated by 1H-NMR. The grafting was further confirmed by FTIR and TGA measurements, which showed that the onset of decomposition for the HA-g-peptide decreased by 10 °C compared to the native HA. Rheological measurements showed that the elastic modulus of a system based on collagen and HA-g-peptide increased by almost two order of magnitude (G' = 200 Pa) compared to a system based on collagen and HA (G' = 0.9 Pa). Overall, this study showed that the synthetic peptides, which were identified from decorin, can be applied as potential building blocks for biomimetic materials that function via biological recognition.
Der Autor versucht mit dieser kurzen Einführung eine Übersicht über den Stand der Forschung zu einem Thema zu geben, das in der Forschung bisher noch nicht ausreichend berücksichtigt wurde: der außerschulischen, privatwirtschaftlich organisierten Zusatzbildung, der sogenannten Shadow Education. Der Fokus der Arbeit richtet sich dabei auf die Länder Japan, welches bereits seit den 1970er Jahren ein System außerschulischer Bildungsinstitutionen besitzt, dessen Einfluss auf den Bildungserwerb junger Menschen so stark ist wie in kaum einem anderen Land, und Deutschland, dessen Schattenbildungs- oder Nachhilfesystem noch keinen derartig starken Einfluss ausübt, jedoch in den vergangenen Jahren steten Zuwachs verzeichnen konnte. Interessierten soll dieser Einblick durch die umfangreiche Bibliographie eine Hilfe bei der Recherche zu diesem Thema bieten.
Eumelanin ist ein Fluorophor mit teilweise recht ungewöhnlichen spektralen Eigenschaften. Unter anderem konnten in früheren Veröffentlichungen Unterschiede zwischen dem 1- und 2-photonen-angeregtem Fluoreszenzspektrum beobachtet werden, weshalb im nichtlinearen Anregungsfall ein schrittweiser Anregungsprozess vermutet wurde. Um diese und weitere optische Eigenschaften des Eumelanins besser zu verstehen, wurden in der vorliegenden Arbeit vielfältige messmethodische Ansätze der linearen und nichtlinearen Optik an synthetischem Eumelanin in 0,1M NaOH verfolgt. Aus den Ergebnissen wurde ein Modell abgeleitet, welches die beobachteten photonischen Eigenschaften konsistent beschreibt. In diesem kaskadierten Zustandsmodell (Kaskaden-Modell) wird die aufgenommene Photonenenergie schrittweise von Anregungszuständen hoher Übergangsenergien zu Anregungszuständen niedrigerer Übergangsenergien transferiert. Messungen der transienten Absorption ergaben dominante Anteile mit kurzen Lebensdauern im ps-Bereich und ließen damit auf eine hohe Relaxationsgeschwindigkeit entlang der Kaskade schließen. Durch Untersuchung der nichtlinear angeregten Fluoreszenz von verschieden großen Eumelanin-Aggregaten konnte gezeigt werden, dass Unterschiede zwischen dem linear und nichtlinear angeregten Fluoreszenzspektrum nicht nur durch einen schrittweisen Anregungsprozess bei nichtlinearer Anregung sondern auch durch Unterschiede in den Verhältnissen der Quantenausbeuten zwischen kleinen und großen Aggregaten beim Wechsel von linearer zu nichtlinearer Anregung begründet sein können. Durch Bestimmung des Anregungswirkungsquerschnitts und der Anregungspulsdauer-Abhängigkeit der nichtlinear angeregten Fluoreszenz von Eumelanin konnte jedoch ein schrittweiser 2-Photonen-Anregungsprozess über einen Zwischenzustand mit Lebendsdauern im ps-Bereich nachgewiesen werden.
The inspiral and merger of two black holes is among the most exciting and extreme events in our universe. Being one of the loudest sources of gravitational waves, they provide a unique dynamical probe of strong-field general relativity and a fertile ground for the observation of fundamental physics. While the detection of gravitational waves alone will allow us to observe our universe through an entirely new window, combining the information obtained from both gravitational wave and electro-magnetic observations will allow us to gain even greater insight in some of the most exciting astrophysical phenomena. In addition, binary black-hole mergers serve as an intriguing tool to study the geometry of space-time itself. In this dissertation we study the merger process of binary black-holes in a variety of conditions. Our results show that asymmetries in the curvature distribution on the common apparent horizon are correlated to the linear momentum acquired by the merger remnant. We propose useful tools for the analysis of black holes in the dynamical and isolated horizon frameworks and shed light on how the final merger of apparent horizons proceeds after a common horizon has already formed. We connect mathematical theorems with data obtained from numerical simulations and provide a first glimpse on the behavior of these surfaces in situations not accessible to analytical tools. We study electro-magnetic counterparts of super-massive binary black-hole mergers with fully 3D general relativistic simulations of binary black-holes immersed both in a uniform magnetic field in vacuum and in a tenuous plasma. We find that while a direct detection of merger signatures with current electro-magnetic telescopes is unlikely, secondary emission, either by altering the accretion rate of the circumbinary disk or by synchrotron radiation from accelerated charges, may be detectable. We propose a novel approach to measure the electro-magnetic radiation in these simulations and find a non-collimated emission that dominates over the collimated one appearing in the form of dual jets associated with each of the black holes. Finally, we provide an optimized gravitational wave detection pipeline using phenomenological waveforms for signals from compact binary coalescence and show that by including spin effects in the waveform templates, the detection efficiency is drastically improved as well as the bias on recovered source parameters reduced. On the whole, this disseration provides evidence that a multi-messenger approach to binary black-hole merger observations provides an exciting prospect to understand these sources and, ultimately, our universe.
Biology has made great progress in identifying and measuring the building blocks of life. The availability of high-throughput methods in molecular biology has dramatically accelerated the growth of biological knowledge for various organisms. The advancements in genomic, proteomic and metabolomic technologies allow for constructing complex models of biological systems. An increasing number of biological repositories is available on the web, incorporating thousands of biochemical reactions and genetic regulations. Systems Biology is a recent research trend in life science, which fosters a systemic view on biology. In Systems Biology one is interested in integrating the knowledge from all these different sources into models that capture the interaction of these entities. By studying these models one wants to understand the emerging properties of the whole system, such as robustness. However, both measurements as well as biological networks are prone to considerable incompleteness, heterogeneity and mutual inconsistency, which makes it highly non-trivial to draw biologically meaningful conclusions in an automated way. Therefore, we want to promote Answer Set Programming (ASP) as a tool for discrete modeling in Systems Biology. ASP is a declarative problem solving paradigm, in which a problem is encoded as a logic program such that its answer sets represent solutions to the problem. ASP has intrinsic features to cope with incompleteness, offers a rich modeling language and highly efficient solving technology. We present ASP solutions, for the analysis of genetic regulatory networks, determining consistency with observed measurements and identifying minimal causes for inconsistency. We extend this approach for computing minimal repairs on model and data that restore consistency. This method allows for predicting unobserved data even in case of inconsistency. Further, we present an ASP approach to metabolic network expansion. This approach exploits the easy characterization of reachability in ASP and its various reasoning methods, to explore the biosynthetic capabilities of metabolic reaction networks and generate hypotheses for extending the network. Finally, we present the BioASP library, a Python library which encapsulates our ASP solutions into the imperative programming paradigm. The library allows for an easy integration of ASP solution into system rich environments, as they exist in Systems Biology.
Parsability approaches of several grammar formalisms generating also non-context-free languages are explored. Chomsky grammars, Lindenmayer systems, grammars with controlled derivations, and grammar systems are treated. Formal properties of these mechanisms are investigated, when they are used as language acceptors. Furthermore, cooperating distributed grammar systems are restricted so that efficient deterministic parsing without backtracking becomes possible. For this class of grammar systems, the parsing algorithm is presented and the feature of leftmost derivations is investigated in detail.
Migration and development in Senegal : a system dynamics analysis of the feedback relationships
(2011)
This thesis investigates the reciprocal relationship between migration and development in Senegal. Therewith, it contributes to the debate as to whether migration in developing countries enhances or rather impedes the development process. Even though extensive and controversial discussions can be found in the scientific literature regarding the impact of migration on development, research has scarcely examined the feedback relationships between migration and development. Science however agrees with both the fact that migration affects development as well as that the level of development in a country determines migration behaviour. Thus, both variables are neither dependent nor independent, but endogenous variables influencing each other and producing behavioural pattern that cannot be investigated using a static and unidirectional approach. On account of this, the thesis studies the feedback mechanisms existing between migration and development and the behavioural pattern generated by the high interdependence in order to be able to draw conclusions concerning the impact of changes in migration behaviour on the development process. To explore these research questions, the study applies the computer simulation method ‘System Dynamics’ and amplifies the simulation model for national development planning called ‘Threshold 21’ (T21), representing development processes endogenously and integrating economic, social and environmental aspects, using a structure that portrays the reasons and consequences of migration. The model has been customised to Senegal, being an appropriate representative of the theoretical interesting universe of cases. The comparison of the model generated scenarios - in which the intensity of emigration, the loss and gain of education, the remittances or the level of dependence changes - facilitates the analysis. The present study produces two important results. The first outcome is the development of an integrative framework representing migration and development in an endogenous way and incorporating several aspects of different theories. This model can be used as a starting point for further discussions and improvements and it is a fairly relevant and useful result against the background that migration is not integrated into most of the development planning tools despite its significant impact. The second outcome is the gained insights concerning the feedback relations between migration and development and the impact of changes in migration on development. To give two examples: It could be found that migration impacts development positively, indicated by HDI, but that the dominant behaviour of migration and development is a counteracting behaviour. That means that an increase in emigration leads to an improvement in development, while this in turn causes a decline in emigration, counterbalancing the initial increase. Another insight concerns the discovery that migration causes a decline in education in the short term, but leads to an increase in the long term, after approximately 25 years - a typical worse-before-better behaviour. From these and further observations, important policy implications can be derived for the sending and receiving countries. Hence, by overcoming the unidirectional perspective, this study contributes to an improved understanding of the highly complex relationship between migration and development and their feedback relations.
During reading oculomotor processes guide the eyes over the text. The visual information recorded is accessed, evaluated and processed. Only by retrieving the meaning of a word from the long-term memory, as well as through the connection and storage of the information about each individual word, is it possible to access the semantic meaning of a sentence. Therefore memory, and here in particular working memory, plays a pivotal role in the basic processes of reading. The following dissertation investigates to what extent different demands on memory and memory capacity have an effect on eye movement behavior while reading. The frequently used paradigm of the reading span task, in which test subjects read and evaluate individual sentences, was used for the experimental review of the research questions. The results speak for the fact that working memory processes have a direct effect on various eye movement measurements. Thus a high working memory load, for example, reduced the perceptual span while reading. The lower the individual working memory capacity of the reader was, the stronger was the influence of the working memory load on the processing of the sentence.
Algorithmic Trading
(2011)
Die Elektronisierung der Finanzmärkte ist in den letzten Jahren weit vorangeschritten. Praktisch jede Börse verfügt über ein elektronisches Handelssystem. In diesem Kontext beschreibt der Begriff Algorithmic Trading ein Phänomen, bei dem Computerprogramme den Menschen im Wertpapierhandel ersetzen. Sie helfen dabei Investmententscheidungen zu treffen oder Transaktionen durchzuführen. Algorithmic Trading selbst ist dabei nur eine unter vielen Innovationen, welche die Entwicklung des Börsenhandels geprägt haben. Hier sind z.B. die Erfindung der Telegraphie, des Telefons, des FAX oder der elektronische Wertpapierabwicklung zu nennen. Die Frage ist heute nicht mehr, ob Computerprogramme im Börsenhandel eingesetzt werden. Sondern die Frage ist, wo die Grenze zwischen vollautomatischem Börsenhandel (durch Computer) und manuellem Börsenhandel (von Menschen) verläuft. Bei der Erforschung von Algorithmic Trading wird die Wissenschaft mit dem Problem konfrontiert, dass keinerlei Informationen über diese Computerprogramme zugänglich sind. Die Idee dieser Dissertation bestand darin, dieses Problem zu umgehen und Informationen über Algorithmic Trading indirekt aus der Analyse von (Fonds-)Renditen zu extrahieren. Johannes Gomolka untersucht daher die Forschungsfrage, ob sich Aussagen über computergesteuerten Wertpapierhandel (kurz: Algorithmic Trading) aus der Analyse von (Fonds-)Renditen ziehen lassen. Zur Beantwortung dieser Forschungsfrage formuliert der Autor eine neue Definition von Algorithmic Trading und unterscheidet mit Buy-Side und Sell-Side Algorithmic Trading zwei grundlegende Funktionen der Computerprogramme (die Entscheidungs- und die Transaktionsunterstützung). Für seine empirische Untersuchung greift Gomolka auf das Multifaktorenmodell zur Style-Analyse von Fung und Hsieh (1997) zurück. Mit Hilfe dieses Modells ist es möglich, die Zeitreihen von Fondsrenditen in interpretierbare Grundbestandteile zu zerlegen und den einzelnen Regressionsfaktoren eine inhaltliche Bedeutung zuzuordnen. Die Ergebnisse dieser Dissertation zeigen, dass man mit Hilfe der Style-Analyse Aussagen über Algorithmic Trading aus der Analyse von (Fonds-)Renditen machen kann. Die Aussagen sind jedoch keiner technischen Natur, sondern auf die Analyse von Handelsstrategien (Investment-Styles) begrenzt.
The Arctic is a particularly sensitive area with respect to climate change due to the high surface albedo of snow and ice and the extreme radiative conditions. Clouds and aerosols as parts of the Arctic atmosphere play an important role in the radiation budget, which is, as yet, poorly quantified and understood. The LIDAR (Light Detection And Ranging) measurements presented in this PhD thesis contribute with continuous altitude resolved aerosol profiles to the understanding of occurrence and characteristics of aerosol layers above Ny-Ålesund, Spitsbergen. The attention was turned to the analysis of periods with high aerosol load. As the Arctic spring troposphere exhibits maximum aerosol optical depths (AODs) each year, March and April of both the years 2007 and 2009 were analyzed. Furthermore, stratospheric aerosol layers of volcanic origin were analyzed for several months, subsequently to the eruptions of the Kasatochi and Sarychev volcanoes in summer 2008 and 2009, respectively. The Koldewey Aerosol Raman LIDAR (KARL) is an instrument for the active remote sensing of atmospheric parameters using pulsed laser radiation. It is operated at the AWIPEV research base and was fundamentally upgraded within the framework of this PhD project. It is now equipped with a new telescope mirror and new detection optics, which facilitate atmospheric profiling from 450m above sea level up to the mid-stratosphere. KARL provides highly resolved profiles of the scattering characteristics of aerosol and cloud particles (backscattering, extinction and depolarization) as well as water vapor profiles within the lower troposphere. Combination of KARL data with data from other instruments on site, namely radiosondes, sun photometer, Micro Pulse LIDAR, and tethersonde system, resulted in a comprehensive data set of scattering phenomena in the Arctic atmosphere. The two spring periods March and April 2007 and 2009 were at first analyzed based on meteorological parameters, like local temperature and relative humidity profiles as well as large scale pressure patterns and air mass origin regions. Here, it was not possible to find a clear correlation between enhanced AOD and air mass origin. However, in a comparison of two cloud free periods in March 2007 and April 2009, large AOD values in 2009 coincided with air mass transport through the central Arctic. This suggests the occurrence of aerosol transformation processes during the aerosol transport to Ny-Ålesund. Measurements on 4 April 2009 revealed maximum AOD values of up to 0.12 and aerosol size distributions changing with altitude. This and other performed case studies suggest the differentiation between three aerosol event types and their origin: Vertically limited aerosol layers in dry air, highly variable hygroscopic boundary layer aerosols and enhanced aerosol load across wide portions of the troposphere. For the spring period 2007, the available KARL data were statistically analyzed using a characterization scheme, which is based on optical characteristics of the scattering particles. The scheme was validated using several case studies. Volcanic eruptions in the northern hemisphere in August 2008 and June 2009 arose the opportunity to analyze volcanic aerosol layers within the stratosphere. The rate of stratospheric AOD change was similar within both years with maximum values above 0.1 about three to five weeks after the respective eruption. In both years, the stratospheric AOD persisted at higher rates than usual until the measurements were stopped in late September due to technical reasons. In 2008, up to three aerosol layers were detected, the layer structure in 2009 was characterized by up to six distinct and thin layers which smeared out to one broad layer after about two months. The lowermost aerosol layer was continuously detected at the tropopause altitude. Three case studies were performed, all revealed rather large indices of refraction of m = (1.53–1.55) - 0.02i, suggesting the presence of an absorbing carbonaceous component. The particle radius, derived with inversion calculations, was also similar in both years with values ranging from 0.16 to 0.19 μm. However, in 2009, a second mode in the size distribution was detected at about 0.5 μm. The long term measurements with the Koldewey Aerosol Raman LIDAR in Ny-Ålesund provide the opportunity to study Arctic aerosols in the troposphere and the stratosphere not only in case studies but on longer time scales. In this PhD thesis, both, tropospheric aerosols in the Arctic spring and stratospheric aerosols following volcanic eruptions have been described qualitatively and quantitatively. Case studies and comparative studies with data of other instruments on site allowed for the analysis of microphysical aerosol characteristics and their temporal evolution.
Poröse Sol-Gel-Materialien finden in vielen Bereichen Anwendung bzw. sind Gegenstand der aktuellen Forschung. Zu diesen Bereichen zählen sowohl klassische Anwendungen, wie z. B. die Verwendung als Katalysator, Molekularsieb oder Trockenmittel, als auch nichtklassische Anwendungen, wie z. B. der Einsatz als Kontrastmittel in der Magnet-Resonanz-Tomographie oder in Form von dünnen Zeolithfilmen als Isolatoren in Mikrochips. Auch für den Einsatz in der Photonik werden poröse Materialien in Betracht gezogen, wie die Entwicklung des Zeolith-Farbstoff-Lasers zeigt. Mikroporöse Zeolithe können generell über einfache Ionenaustauschreaktionen mit Lanthanoidionen in lumineszente Materialien umgewandelt werden. Neben der Erzeugung eines lumineszenten Materials, dessen Lumineszenzeigenschaften charakterisiert werden müssen, bietet die Nutzung von Lanthanoidionen die Möglichkeit diese Ionen als Sonde zur Charakterisierung der Ion-Wirt-Wechselwirkungen zu funktionalisieren, was z. B. in Bezug auf die Anwendung als Katalysator von großer Bedeutung ist. Dabei werden die einzigartigen Lumineszenzeigenschaften der Lanthanoidionen, in diesem Fall von Europium(III) und Terbium(III), genutzt. In dieser Arbeit wurden Lanthanoid-dotierte mikroporöse Zeolithe, mikroporös-mesoporöse Hybridmaterialien und mesoporöse Silikate hinsichtlich ihrer Lumineszenzeigenschaften und ihrer Wechselwirkung des Wirtsmaterials mit den Lanthanoidionen mittels zeitaufgelöster Lumineszenzspektroskopie untersucht. Zeitaufgelöste Emissionsspektren (TRES) liefern dabei sowohl Informationen in der Wellenlängen- als auch in der Zeitdomäne. Erstmalig wurden die TRES mittels einer umfangreichen Auswertemethodik behandelt. Neben der Anpassung des Abklingverhaltens mit einer diskreten Zahl von Exponentialfunktionen, wurden unterstützend auch Abklingzeitverteilungsanalysen durchgeführt. Zeitaufgelöste flächennormierte Emissionsspektren (TRANES), eine Erweiterung der normalen TRES, konnten erstmals zur Bestimmung der Zahl der emittierenden Lanthanoidspezies in porösen Materialien genutzt werden. Durch die Berechnung der Decayassoziierten Spektren (DAS) konnten den Lanthanoidspezies die entsprechenden Lumineszenzspektren zugeordnet werden. Zusätzlich konnte, speziell im Fall der Europium-Lumineszenz, durch Kombination von zeitlicher und spektraler Information das zeitabhängige Asymmetrieverhältnis R und die spektrale Evolution des 5D0-7F0-Übergangs mit der Zeit t untersucht und somit wesentliche Informationen über die Verteilung der Europiumionen im Wirtsmaterial erhalten werden. Über die Abklingzeit und das Asymmetrieverhältnis R konnten Rückschlüsse auf die Zahl der OH-Oszillatoren in der ersten Koordinationssphäre und die Symmetrie der Koordinationsumgebung gezogen werden. Für die mikroporösen und mikroporös-mesoporösen Materialien wurden verschiedene Lanthanoidspezies, im Regelfall zwei, gefunden, welche entsprechend der beschriebenen Methoden charakterisiert wurden. Diese Lanthanoidspezies konnten Positionen in den Materialien zugeordnet werden, die sich im tief Inneren des Porensystems oder auf bzw. nahe der äußeren Oberfläche oder in den Mesoporen befinden. Erstere Spezies ist aufgrund ihrer Position im Material gut vor Feuchtigkeitseinflüssen geschützt, was sich deutlich in entsprechend langen Lumineszenzabklingzeiten äußert. Zusätzlich ist diese Europiumspezies durch unsymmetrische Koordinationsumgebung charakterisiert, was auf einen signifikanten Anteil an Koordination der Lanthanoidionen durch die Sauerstoffatome im Wirtsgitter zurückzuführen ist. Ionen, die sich nahe oder auf der äußeren Oberfläche befinden, sind dagegen für Feuchtigkeit zugänglicher, was in kürzeren Lumineszenzabklingzeiten und einer symmetrischeren Koordinationsumgebung resultiert. Der Anteil von Wassermolekülen in der ersten Koordinationssphäre ist hier deutlich größer, als bei den Ionen, die sich tiefer im Porensystem befinden und entspricht in vielen Fällen der Koordinationszahl eines vollständig hydratisierten Lanthanoidions. Auch der Einfluss von Oberflächenmodifikationen auf die Speziesverteilung und das Verhalten der Materialien gegenüber Feuchtigkeit wurde untersucht. Dabei gelang es den Einfluss der Feuchtigkeit auf die Lumineszenzeigenschaften und die Speziesverteilung durch die Oberflächenmodifikation zu verringern und die Lumineszenzeigenschaften teilweise zu konservieren. Im Fall der mesoporösen Silikamonolithe wurde auch eine heterogene Verteilung der Lanthanoidionen im Porensystem gefunden. Hier wechselwirkt ein Teil der Ionen mit der Porenwand, während sich die restlichen Ionen in der wäßrigen Phase innerhalb des Porensystems aufhalten. Das Aufbringen von Oberflächenmodifikationen führte zu einer Wechselwirkung der Ionen mit diesen Oberflächenmodifikationen, was sich in Abhängigkeit von der Oberflächenbeladung in den enstprechenden Lumineszenzeigenschaften niederschlug.
In dieser Arbeit wird das regionale Klimamodell HIRHAM mit einer horizontalen Auflösung von 50 km und 19 vertikalen Schichten erstmals auf den asiatischen Kontinent angewendet, um die indische Monsunzirkulation unter rezenten und paläoklimatischen Bedingungen zu simulieren. Das Integrationsgebiet des Modells erstreckt sich von etwa 0ºN - 50ºN und 42ºE - 110ºE und bedeckt dabei sowohl die hohe Topographie des Himalajas und Tibet Plateaus als auch den nördlichen Indischen Ozean. Das Ziel besteht in der Beschreibung der regionalen Kopplung zwischen der Monsunzirkulation und den orographischen sowie diabatischen Antriebsmechanismen. Eine 44-jährige Modellsimulation von 1958-2001, die am seitlichen und unteren Rand von ECMWF Reanalysen (ERA40) angetrieben wird, bildet die Grundlage für die Validierung der Modellergebnisse mit Beobachtungen auf der Basis von Stations- und Gitterdatensätzen. Der Fokus liegt dabei auf der atmosphärischen Zirkulation, der Temperatur und dem Niederschlag im Sommer- und Wintermonsun, wobei die Qualität des Modells sowohl in Bezug zur langfristigen und dekadischen Klimatologie als auch zur interannuellen Variabilität evaluiert wird. Im Zusammenhang mit einer realistischen Reproduktion der Modelltopographie kann für die Muster der Zirkulation und Temperatur eine gute Übereinstimmung zwischen Modell und Daten nachgewiesen werden. Der simulierte Niederschlag zeigt eine bessere Übereinstimmung mit einem hoch aufgelösten Gitterdatensatz über der Landoberfläche Zentralindiens und in den Hochgebirgsregionen, der den Vorteil des Regionalmodells gegenüber der antreibenden Reanalyse hervorhebt. In verschiedenen Fall- und Sensitivitätsstudien werden die wesentlichen Antriebsfaktoren des indischen Monsuns (Meeresoberflächentemperaturen, Stärke des winterlichen Sibirischen Hochs und Anomalien der Bodenfeuchte) untersucht. Die Ergebnisse machen deutlich, dass die Simulation dieser Mechanismen auch mit einem Regionalmodell sehr schwierig ist, da die Komplexität des Monsunsystems hochgradig nichtlinear ist und die vor allem subgridskalig wirkenden Prozesse im Modell noch nicht ausreichend parametrisiert und verstanden sind. Ein paläoklimatisches Experiment für eine 44-jährige Zeitscheibe im mittleren Holozän (etwa 6000 Jahre vor heute), die am Rand von einer globalen ECHAM5 Simulation angetrieben wird, zeigt markante Veränderungen in der Intensität des Monsuns durch die unterschiedliche solare Einstrahlung, die wiederum Einflüsse auf die SST, die Zirkulation und damit auf die Niederschlagsmuster hat.
Neues deutsches Gedenken?
(2011)
Bedarf es eines neuen Gedenktages der Vertriebenen in Deutschland? Die deutsche Regierung meint Ja. Auf ihre Initiative hin wurde die Entschließung "60 Jahre Charta der deutschen Heimatvertriebenen – Aussöhnung vollenden" im Februar 2011 angenommen. Dieser Gedenktag soll der 5. August sein, also jener Tag, an dem 1950 die "Charta der deutschen Heimatvertriebenen" in Stuttgart angenommen wurde. Der Entschluss traf im Bundestag auf den Widerstand der Opposition – aber auch auf scharfe Kritik in Polen.
In diesem Beitrag wird "fallbasierte Lernberatung" als ein zentrales Moment der Weiterentwicklung der Studierfähigkeit der Studierenden vor- und dargestellt. Fallbasierte Lernberatung wird darin als reflexive Praktik verstanden, die in Lehrveranstaltungen oder begleitend zu Lehrveranstaltungen angeboten werden kann. Mit der Bereitstellung eines solchen Lernberatungsangebots wird zweierlei erreicht. Studierende erhalten die professionell begleitete Gelegenheit, ihre Lernfähigkeiten weiter zu entwickeln und Lehrende Aufschluss über die konkreten Lernprobleme der Studierenden. Dieser kann wiederum auf das Lehrangebot rückwirken und so die Qualität der Lehre verbessern helfen.
CSOM/PL is a software product line (SPL) derived from applying multi-dimensional separation of concerns (MDSOC) techniques to the domain of high-level language virtual machine (VM) implementations. For CSOM/PL, we modularised CSOM, a Smalltalk VM implemented in C, using VMADL (virtual machine architecture description language). Several features of the original CSOM were encapsulated in VMADL modules and composed in various combinations. In an evaluation of our approach, we show that applying MDSOC and SPL principles to a domain as complex as that of VMs is not only feasible but beneficial, as it improves understandability, maintainability, and configurability of VM implementations without harming performance.
Der Forschungskreis Vereinte Nationen wurde 1999 als informelles Netzwerk für UN-Forschung gegründet mit dem Ziel, den Informationsaustausch unter den Wissenschaftlern der verschiedenen Fachdisziplinen und den Dialog mit den Praktikern zu fördern. Die regelmäßig stattfindenden Potsdamer UNO-Konferenzen des Forschungskreises Vereinte Nationen widmen sich der kritischen Analyse der UN-Forschung. Darüber hinaus bieten sie ein Forum für die Diskussion mit Politikern, UN-Mitarbeitern, Diplomaten und Journalisten über die Aufgaben der Vereinten Nationen und ihre Strukturen sowie über Konzepte zu ihrer Reform. Im vorliegenden Buch werden wichtige Referate der Potsdamer UNO-Konferenzen 2000 – 2008 veröffentlicht, die sich unter anderem den Themenbereichen Friedenssicherung, Menschenrechtsschutz und Umweltschutz durch die Vereinten Nationen, der Reform der UN-Hauptorgane sowie der deutschen UN-Politik und der UN-Politik im Rahmen der Europäischen Union widmen, und die ergänzt werden durch Beiträge der beiden Herausgeber zu den Problemen und Perspektiven der UN-Forschung in Deutschland.
In the present work synchronization phenomena in complex dynamical systems exhibiting multiple time scales have been analyzed. Multiple time scales can be active in different manners. Three different systems have been analyzed with different methods from data analysis. The first system studied is a large heterogenous network of bursting neurons, that is a system with two predominant time scales, the fast firing of action potentials (spikes) and the burst of repetitive spikes followed by a quiescent phase. This system has been integrated numerically and analyzed with methods based on recurrence in phase space. An interesting result are the different transitions to synchrony found in the two distinct time scales. Moreover, an anomalous synchronization effect can be observed in the fast time scale, i.e. there is range of the coupling strength where desynchronization occurs. The second system analyzed, numerically as well as experimentally, is a pair of coupled CO₂ lasers in a chaotic bursting regime. This system is interesting due to its similarity with epidemic models. We explain the bursts by different time scales generated from unstable periodic orbits embedded in the chaotic attractor and perform a synchronization analysis of these different orbits utilizing the continuous wavelet transform. We find a diverse route to synchrony of these different observed time scales. The last system studied is a small network motif of limit cycle oscillators. Precisely, we have studied a hub motif, which serves as elementary building block for scale-free networks, a type of network found in many real world applications. These hubs are of special importance for communication and information transfer in complex networks. Here, a detailed study on the mechanism of synchronization in oscillatory networks with a broad frequency distribution has been carried out. In particular, we find a remote synchronization of nodes in the network which are not directly coupled. We also explain the responsible mechanism and its limitations and constraints. Further we derive an analytic expression for it and show that information transmission in pure phase oscillators, such as the Kuramoto type, is limited. In addition to the numerical and analytic analysis an experiment consisting of electrical circuits has been designed. The obtained results confirm the former findings.
Diese Arbeit untersucht, welche Faktoren die unterschiedliche Ausgestaltung von Beteiligungsmanagement in Kommunen erklären. Die Literatur verweist zwar auf die zunehmende Wichtigkeit des Managements von Beteiligungen, aber in der Praxis unterscheidet sich die Steuerung der Beteiligung stark. Auf Basis der Literatur zu Beteiligungsmanagement und zum Performance Management wird ein analytischer Rahmen aufgestellt, der es erlaubt, das Beteiligungsmanagement in Kommunen zu kategorisieren. Auch wird aus der Literatur abgeleitet, in wie weit strukturelle, institutionelle und akteursbezogene Faktoren die Ausgestaltung des Beteiligungsmanagement erklären können. Im Rahmen dieser Studie werden vier kreisfreien Städten verglichen und explorativ mögliche Erklärungsfaktoren identifiziert. So sind insbesondere institutionelle Faktoren, wie die organisatorische Ausgestaltung des Beteiligungsmanagements oder die Erfahrungen und Kompetenzen der Verwaltung, und akteursbezogene Faktoren, wie die Einstellung und Interessen von Verwaltungsleitung, Politik und Beteiligungen, wahrscheinliche Erklärungsfaktoren.
Public debate about energy relations between the EU and Russia is distorted. These distortions present considerable obstacles to the development of true partnership. At the core of the conflict is a struggle for resource rents between energy producing, energy consuming and transit countries. Supposed secondary aspects, however, are also of great importance. They comprise of geopolitics, market access, economic development and state sovereignty. The European Union, having engaged in energy market liberalisation, faces a widening gap between declining domestic resources and continuously growing energy demand. Diverse interests inside the EU prevent the definition of a coherent and respected energy policy. Russia, for its part, is no longer willing to subsidise its neighbouring economies by cheap energy exports. The Russian government engages in assertive policies pursuing Russian interests. In so far, it opts for a different globalisation approach, refusing the role of mere energy exporter. In view of the intensifying struggle for global resources, Russia, with its large energy potential, appears to be a very favourable option for European energy supplies, if not the best one. However, several outcomes of the strategic game between the two partners can be imagined. Engaging in non-cooperative strategies will in the end leave all stakeholders worse-off. The European Union should therefore concentrate on securing its partnership with Russia instead of damaging it. Stable cooperation would need the acceptance that the partner may pursue his own goals, which might be different from one’s own interests. The question is, how can a sustainable compromise be found? This thesis finds that a mix of continued dialogue, a tit for tat approach bolstered by an international institutional framework and increased integration efforts appears as a preferable solution.
Lokale Politiknetzwerke werden sowohl in der öffentlichen Sozialstaatsdebatte als auch in der sozialwissenschaftlichen Forschung als vielversprechende Instrumente zur Optimierung von Wohlfahrtsmärkten propagiert. So auch in der Diskussion um den deutschen Pflegemarkt und seine Steuerungsdefizite. Im Gegensatz zu den mit dem Steuerungsinstrument Pflegekonferenz verknüpften Erwartungen, sind dessen genaues Steuerungspotential und mögliche Erklärungsfaktoren bisher jedoch nicht systematisch untersucht worden. Den methodologischen Kern dieser Arbeit bilden eine strukturelle Politikfeldanalyse des deutschen Pflegemarktes in Kombination mit einer empirischen Einzelfallstudie zu den Steuerungsleistungen einer Pflegekonferenz. Grundlage ist ein spezifisches Analyseraster auf Basis des akteurzentrierten Institutionalismus, welches die Aufmerksamkeit in der Analyse der Erklärungsfaktoren auf die Kombination der Koordinationsinstrumente Markt und Netzwerk sowie die Ausgestaltung des institutionellen Rahmens durch Gesetzgebung und Selbstverwaltung lenken soll. Im Rahmen der empirischen Erhebung konnten kaum direkte und nur wenige indirekte Steuerungsleistungen nachgewiesen werden. Als Ergebnis der Analyse lässt sich festhalten, dass lokale Politiknetzwerke im Umfeld des deutschen Pflegemarktes grundsätzlich mit erheblichen Herausforderungen hinsichtlich ihrer Steuerungsfunktion zu kämpfen haben. Dies lässt sich zum einen darauf zurückführen, dass ein gemeinsames Steuerungsinteresse der Akteure nur in wenigen Bereichen vorhanden ist, da die Grundbedingung der Interdependenz selten gegeben ist und auch nur sehr eingeschränkt innerhalb von Pflegekonferenzen entwickelt werden kann. Zum anderen sind die steuerungsrelevanten Handlungsressourcen oftmals lokal nicht verfügbar, wodurch erschwerend die Steuerungsmöglichkeiten eingeschränkt werden. Je nach Steuerungsbereich sind diese Faktoren jedoch verschieden ausgeprägt, sodass sich unterschiedliche Steuerungspotentiale ergeben.
Spatial and temporal temperature and moisture patterns across the Tibetan Plateau are very complex. The onset and magnitude of the Holocene climate optimum in the Asian monsoon realm, in particular, is a subject of considerable debate as this time period is often used as an analogue for recent global warming. In the light of contradictory inferences regarding past climate and environmental change on the Tibetan Plateau, I have attempted to explain mismatches in the timing and magnitude of change. Therefore, I analysed the temporal variation of fossil pollen and diatom spectra and the geochemical record from palaeo-ecological records covering different time scales (late Quaternary and the last 200 years) from two core regions in the NE and SE Tibetan Plateau. For interpretation purposes I combined my data with other available palaeo-ecological data to set up corresponding aquatic and terrestrial proxy data sets of two lake pairs and two sets of sites. I focused on the direct comparison of proxies representing lacustrine response to climate signals (e.g., diatoms, ostracods, geochemical record) and proxies representing changes in the terrestrial environment (i.e., terrestrial pollen), in order to asses whether the lake and its catchments respond at similar times and magnitudes to environmental changes. Therefore, I introduced the established numerical technique procrustes rotation as a new approach in palaeoecology to quantitatively compare raw data of any two sedimentary records of interest in order to assess their degree of concordance. Focusing on the late Quaternary, sediment cores from two lakes (Kuhai Lake 35.3°N; 99.2°E; 4150 m asl; and Koucha Lake 34.0°N; 97.2°E; 4540 m asl) on the semi-arid northeastern Tibetan Plateau were analysed to identify post-glacial vegetation and environmental changes, and to investigate the responses of lake ecosystems to such changes. Based on the pollen record, five major vegetation and climate changes could be identified: (1) A shift from alpine desert to alpine steppe indicates a change from cold, dry conditions to warmer and more moist conditions at 14.8 cal. ka BP, (2) alpine steppe with tundra elements points to conditions of higher effective moisture and a stepwise warming climate at 13.6 cal. ka BP, (3) the appearance of high-alpine meadow vegetation indicates a further change towards increased moisture, but with colder temperatures, at 7.0 cal. ka BP, (4) the reoccurrence of alpine steppe with desert elements suggests a return to a significantly colder and drier phase at 6.3 cal. ka BP, and (5) the establishment of alpine steppe-meadow vegetation indicates a change back to relatively moist conditions at 2.2 cal. ka BP. To place the reconstructed climate inferences from the NE Tibetan Plateau into the context of Holocene moisture evolution across the Tibetan Plateau, I applied a five-scale moisture index and average link clustering to all available continuous pollen and non-pollen palaeoclimate records from the Tibetan Plateau, in an attempt to detect coherent regional and temporal patterns of moisture evolution on the Plateau. However, no common temporal or spatial pattern of moisture evolution during the Holocene could be detected, which can be assigned to the complex responses of different proxies to environmental changes in an already very heterogeneous mountain landscape, where minor differences in elevation can result in marked variations in microenvironments. Focusing on the past 200 years, I analysed the sedimentary records (LC6 Lake 29.5°N, 94.3°E, 4132 m asl; and Wuxu Lake 29.9°N, 101.1°E, 3705 m asl) from the southeastern Tibetan Plateau. I found that despite presumed significant temperature increases over that period, pollen and diatom records from the SE Tibetan Plateau reveal only very subtle changes throughout their profiles. The compositional species turnover investigated over the last 200 years appears relatively low in comparison to the species reorganisations during the Holocene. The results indicate that climatically induced ecological thresholds are not yet crossed, but that human activity has an increasing influence, particularly on the terrestrial ecosystem. Forest clearances and reforestation have not caused forest decline in our study area, but a conversion of natural forests to semi-natural secondary forests. The results from the numerical proxy comparison of the two sets of two pairs of Tibetan lakes indicate that the use of different proxies and the work with palaeo-ecological records from different lake types can cause deviant stories of inferred change. Irrespective of the timescale (Holocene or last 200 years) or region (SE or NE Tibetan Plateau) analysed, the agreement in terms of the direction, timing, and magnitude of change between the corresponding terrestrial data sets is generally better than the match between the corresponding lacustrine data sets, suggesting that lacustrine proxies may partly be influenced by in-lake or local catchment processes whereas the terrestrial proxy reflects a more regional climatic signal. The current disaccord on coherent temporal and spatial climate patterns on the Tibetan Plateau can partly be ascribed to the complexity of proxy response and lake systems on the Tibetan Plateau. Therefore, a multi-proxy, multi-site approach is important in order to gain a reliable climate interpretation for the complex mountain landscape of the Tibetan Plateau.
Einführung in den Band
(2011)
Küsten und Klimawandel in den Augen von Touristen : eine Wahrnehmungsanalyse an der deutschen Ostsee
(2011)
Aufgrund seiner wirtschaftlichen Bedeutung spielt der Tourismus in Mecklenburg-Vorpommern eine große Rolle. Insbesondere die Küstengebiete sind beliebte Reiseziele. In den letzten Jahren konnte ein kontinuierlicher Anstieg der Ankünfte und Übernachtungen verzeichnet werden. Neben anderen Faktoren werden die regionalen Auswirkungen des Klimawandels jedoch in Zukunft eine Herausforderung für den Tourismussektor darstellen. Die globale Erwärmung wird für den Strand- und Badetourismus sowohl negative, als auch positive Folgen haben, auf die reagiert werden muss. Neben vorbeugenden Klimaschutzmaßnahmen werden künftig auch Anpassungsstrategien entwickelt werden müssen, die den zu erwartenden Veränderungen Rechnung tragen. Doch zu welchen tourismusrelevanten Veränderungen wird es überhaupt kommen und was geschieht bereits aktuell? Sind die Folgen des Klimawandels durch Touristen schon jetzt wahrnehmbar? Wie reagieren die Urlauber auf eventuelle Veränderungen? Diese und andere Fragen soll die vorliegende Arbeit, die innerhalb des RAdOST-Vorhabens (Regionale Anpassungsstrategien für die deutsche Ostseeküste) angesiedelt ist, beantworten. Dazu wurde zum einen eine Literaturrecherche zu tourismusrelevanten Klimawandelfolgen an der deutschen Ostseeküste durchgeführt. Zum anderen erfolgte in den Sommermonaten 2010 eine Befragung der Strandgäste in Markgrafenheide, Warnemünde und Nienhagen an der mecklenburgischen Ostseeküste. Im Mittelpunkt der Umfrage stand die Wahrnehmung von Erscheinungen (z.B. viele Quallen oder warmes Ostseewasser) sowie kurz- oder langfristigen Veränderungen an der Küste (z.B. schmalere Strände, vermehrter Strandanwurf) durch die Urlauber. Außerdem wurden die Einstellung und der Informationsgrad der Gäste zum Thema Klimawandel an der Ostseeküste analysiert. Ziel war es, aus den Umfrageergebnissen Handlungsempfehlungen für das lokale Strandmanagement hinsichtlich künftiger Anpassungsstrategien abzuleiten. Die Literaturrecherche zeigte, dass in einigen Bereichen schon jetzt Veränderungen (z.B. der Luft- und Wassertemperatur oder des Meeresspiegels) nachweisbar sind und laut verschiedener Modellprojektionen von weiteren Veränderungen ausgegangen werden kann. Wie die Umfrage deutlich machte, sind die Veränderungen momentan durch Touristen jedoch kaum oder gar nicht wahrnehmbar. Dementsprechend gering ist auch ihre Reaktion auf die einzelnen Phänomene. Generell ist die Wahrnehmung der Urlauber sehr subjektiv und selektiv. Manche Gegebenheiten wie beispielsweise existierende Küstenschutzmaßnahmen werden von einem großen Teil der Touristen gar nicht wahrgenommen. Hinsichtlich anderer Erscheinungen wie Strandanwurf und Quallen sind viele Besucher wiederum sehr sensibel. Es zeigte sich außerdem, dass es für die meisten Urlauber schwierig ist, zu beurteilen, ob bestimmte Gegebenheiten am Strand und an der Küste mit der globalen Erwärmung in Verbindung stehen oder nicht. Es besteht eine große Unsicherheit zu diesem Thema und oft wird der Klimawandel als Ursache für Erscheinungen genannt, auch wenn der kausale Zusammenhang wissenschaftlich nicht nachzuweisen ist. Es zeigte sich, dass die Urlauber sehr wenig über die regionalen Auswirkungen des Klimawandels informiert sind, sich aber Informationen wünschen. Folglich sollte zunächst die Aufklärung und Information der Urlauber über die Folgen der Veränderung des Klimas im Vordergrund stehen. Denn manche Aspekte, wie der Verlust von Strandabschnitten durch Erosion oder eine eventuelle Zunahme von Blaualgen in der Sommersaison, können nicht gänzlich vermieden werden. Durch gezielte Aufklärung könnte jedoch beispielsweise eine Akzeptanz für naturnahe Strände oder für den Rückzug aus einzelnen Gebieten geschaffen werden. Darüber hinaus sollte die zu erwartende Saisonverlängerung systematisch genutzt werden, um sowohl die Küste, als auch das Hinterland durch gezielte Angebote für Touristen attraktiv zu machen. Auf diese Weise könnte eine Entzerrung der Hauptsaison und eine bessere Auslastung der Beherbergungsbetriebe sowie der touristischen Infrastruktur erreicht werden.
Geschichte ist überall – heute auch und vor allem in audiovisuellen Massenmedien. Mittlerweile sind Historienfilme und historische Dokumentationen, ganz gleich ob im Fernsehen, im Kino, im Internet oder auf mobilen Datenträgern, zu wichtigen Medien der populären Präsentation und Projektion allgemeinhistorischen Wissens avanciert. Der vorliegende Band greift die geschichtswissenschaftliche Diskussion über Historienfilme auf und fragt u. a. danach, welche Bilder von Militär und Gesellschaft der Frühen Neuzeit Historienfilme vermitteln, aus welchen Gründen und mit welchen Mitteln sie dies tun. Aus vorwiegend geschichtswissenschaftlicher Perspektive untersuchen die einzelnen Beiträge filmische Inszenierungen von Vergangenheit: deren innerfilmische Realitäten, Produktionsbedingungen, Gegenwartsbezüge und Rezeptionsweisen.
In the present thesis, the self-assembly of multi thermoresponsive block copolymers in dilute aqueous solution was investigated by a combination of turbidimetry, dynamic light scattering, TEM measurements, NMR as well as fluorescence spectroscopy. The successive conversion of such block copolymers from a hydrophilic into a hydrophobic state includes intermediate amphiphilic states with a variable hydrophilic-to-lipophilic balance. As a result, the self-organization is not following an all-or-none principle but a multistep aggregation in dilute solution was observed. The synthesis of double thermoresponsive diblock copolymers as well as triple thermoresponsive triblock copolymers was realized using twofold-TMS labeled RAFT agents which provide direct information about the average molar mass as well as residual end group functionality from a routine proton NMR spectrum. First a set of double thermosensitive diblock copolymers poly(N-n-propylacrylamide)-b-poly(N-ethylacrylamide) was synthesized which differed only in the relative size of the two blocks. Depending on the relative block lengths, different aggregation pathways were found. Furthermore, the complementary TMS-labeled end groups served as NMR-probes for the self-assembly of these diblock copolymers in dilute solution. Reversible, temperature sensitive peak splitting of the TMS-signals in NMR spectroscopy was indicative for the formation of mixed star-/flower-like micelles in some cases. Moreover, triple thermoresponsive triblock copolymers from poly(N-n-propylacrylamide) (A), poly(methoxydiethylene glycol acrylate) (B) and poly(N-ethylacrylamide) (C) were obtained from sequential RAFT polymerization in all possible block sequences (ABC, BAC, ACB). Their self-organization behavior in dilute aqueous solution was found to be rather complex and dependent on the positioning of the different blocks within the terpolymers. Especially the localization of the low-LCST block (A) had a large influence on the aggregation behavior. Above the first cloud point, aggregates were only observed when the A block was located at one terminus. Once placed in the middle, unimolecular micelles were observed which showed aggregation only above the second phase transition temperature of the B block. Carrier abilities of such triple thermosensitive triblock copolymers tested in fluorescence spectroscopy, using the solvatochromic dye Nile Red, suggested that the hydrophobic probe is less efficiently incorporated by the polymer with the BAC sequence as compared to ABC or ACB polymers above the first phase transition temperature. In addition, due to the problem of increasing loss of end group functionality during the subsequent polymerization steps, a novel concept for the one-step synthesis of multi thermoresponsive block copolymers was developed. This allowed to synthesize double thermoresponsive di- and triblock copolymers in a single polymerization step. The copolymerization of different N-substituted maleimides with a thermosensitive styrene derivative (4-vinylbenzyl methoxytetrakis(oxyethylene) ether) led to alternating copolymers with variable LCST. Consequently, an excess of this styrene-based monomer allowed the synthesis of double thermoresponsive tapered block copolymers in a single polymerization step.
In the living cell, the organization of the complex internal structure relies to a large extent on molecular motors. Molecular motors are proteins that are able to convert chemical energy from the hydrolysis of adenosine triphosphate (ATP) into mechanical work. Being about 10 to 100 nanometers in size, the molecules act on a length scale, for which thermal collisions have a considerable impact onto their motion. In this way, they constitute paradigmatic examples of thermodynamic machines out of equilibrium. This study develops a theoretical description for the energy conversion by the molecular motor myosin V, using many different aspects of theoretical physics. Myosin V has been studied extensively in both bulk and single molecule experiments. Its stepping velocity has been characterized as a function of external control parameters such as nucleotide concentration and applied forces. In addition, numerous kinetic rates involved in the enzymatic reaction of the molecule have been determined. For forces that exceed the stall force of the motor, myosin V exhibits a 'ratcheting' behaviour: For loads in the direction of forward stepping, the velocity depends on the concentration of ATP, while for backward loads there is no such influence. Based on the chemical states of the motor, we construct a general network theory that incorporates experimental observations about the stepping behaviour of myosin V. The motor's motion is captured through the network description supplemented by a Markov process to describe the motor dynamics. This approach has the advantage of directly addressing the chemical kinetics of the molecule, and treating the mechanical and chemical processes on equal grounds. We utilize constraints arising from nonequilibrium thermodynamics to determine motor parameters and demonstrate that the motor behaviour is governed by several chemomechanical motor cycles. In addition, we investigate the functional dependence of stepping rates on force by deducing the motor's response to external loads via an appropriate Fokker-Planck equation. For substall forces, the dominant pathway of the motor network is profoundly different from the one for superstall forces, which leads to a stepping behaviour that is in agreement with the experimental observations. The extension of our analysis to Markov processes with absorbing boundaries allows for the calculation of the motor's dwell time distributions. These reveal aspects of the coordination of the motor's heads and contain direct information about the backsteps of the motor. Our theory provides a unified description for the myosin V motor as studied in single motor experiments.
Dieser Text geht der Frage nach, wie die wissenschaftliche Auseinandersetzung mit den nationalsozialistischen Ghettos in der Zeit von 1945 bis 1960 im englischen Sprachraum betrieben wurde. Werke, die jüdisches Erleben und Handeln mitsamt der gesellschaftlichen Organisation in den Mittelpunkt rücken, sind in diesem Zeitraum deutlich stärker vertreten, als dies nach einer Lektüre der Sekundärliteratur zu erwarten wäre. Ein wissenschaftlicher Ansatz, der die Juden nicht nur als namenlose Masse von Opfern wahrnimmt, tritt also durchaus schon früh auf. Ebenso wird die Politik der jüdischen Führungsschichten, der so genannten ‚Judenräte‘, deutlich differenzierter verhandelt als vermutet; neben vernichtenden Urteilen finden sich Kontextualisierungen, die ihr Agieren aus verschiedenen Blickwinkeln beleuchten und einordnen. Auch wenn diese Forschungsanliegen zunächst nur bedingt rezipiert wurden und vor allem universitär marginal blieben, lassen sich doch von dieser Seite Traditionslinien besonders in die entstehende israelische Holocaustforschung beobachten.
Bei den nationalsozialistischen Ghettos handelte es nicht nur um Orte der Verfolgung, sondern auch um Lebenswelten, die von den Bewohner/innen selbst mitgestaltet wurden – auch wenn die Handlungsspielräume durch die Rahmenbedingungen stark eingeschränkt waren. Im Artikel werden die Pläne für ein Museum im Ghetto Litzmannstadt diskutiert, das neben einer wirtschaftlichen und statistischen Ausstellung über die Produktionsleistungen der Ghettobetriebe auch einen kulturell-religiösen Bereich über das osteuropäische Judentum umfassen sollte. Die Idee für das Museum entstand in der deutschen Ghettoverwaltung, diese richtete für die Ausgestaltung der Räume über das Judentum eine Wissenschaftliche Abteilung innerhalb des Ghettos ein. Die Position der Wissenschaftlichen Abteilung, deren Arbeit in Sammlungs- und künstlerischen Aktivitäten bestand, war im Ghetto allerdings umstritten, da die propagandistische Vereinnahmung der ausgeführten Arbeiten durch die deutsche Ghettoverwaltung befürchtet wurde. Aber auch außerhalb des Ghettos stieß die Idee auf Ablehnung durch das Propagandaministerium. Im Artikel werden die sich überschneidenden aber teilweise auch widersprüchlichen Interessen und Motivationen der verschiedenen Protagonisten/innen dargestellt.
Space is understood best through movement, and complex spaces require not only movement but navigation. The theorization of navigable space requires a conceptual representation of space which is adaptable to the great malleability of video game spaces, a malleability which allows for designs which combine spaces with differing dimensionality and even involve non-Euclidean configurations with contingent connectivity. This essay attempts to describe the structural elements of video game space and to define them in such a way so as to make them applicable to all video game spaces, including potential ones still undiscovered, and to provide analytical tools for their comparison and examination. Along with the consideration of space, there will be a brief discussion of navigational logic, which arises from detectable regularities in a spatial structure that allow players to understand and form expectations regarding a game’s spaces.
This paper addresses a theoretical reconfiguration of experience, a repositioning of the techno-social within the domains of mobility, games, and play, and embodiment. The ideas aim to counter the notion that our experience with videogames (and digital media more generally), is largely “virtual” and disembodied – or at most exclusively audiovisual. Notions of the virtual and disembodied support an often-tacit belief that technologically mediated experiences count for nothing if not perceived and valued as human. It is here where play in particular can be put to work, be made to highlight and clarify, for it is in play that we find this value of humanity most wholly embodied. Further, it is in considering the design of the metagame that questions regarding the play experience can be most powerfully engaged. While most of any given game’s metagame emerges from play communities and their larger social worlds (putting it out of reach of game design proper), mobile platforms have the potential to enable a stitching together of these experiences: experiences held across time, space, communities, and bodies. This coming together thus represents a convergence not only of media, participants, contexts, and technologies, but of human experience itself. This coming together is hardly neat, nor fully realized. It is, if nothing else, multifaceted and worthy of further study. It is a convergence in which the dynamics of screen play are reengaged.
This co-authored paper is based on research that originated in 2003 when our team started a series of extensive field studies into the character of gameplay experiences. Originally within the Children as the Actors of Game Cultures research project, our aim was to better understand why particularly young people enjoy playing games, while also asking their parents how they perceive gaming as playing partners or as close observers. Gradually our in-depth interviews started to reveal a complex picture of more general relevance, where personal experiences, social contexts and cultural practices all came together to frame gameplay within something we called game cultures. Culture was the keyword, since we were not interested in studying games and play experiences in isolation, but rather as part of the rich meaning- making practices of lived reality.
Paul Lindaus DER ANDERE
(2011)
In dieser Arbeit wird die Wirkungs- und Entstehungsgeschichte des Schauspiels „Der Andere“ (1893) von Paul Lindau (1819-1839) untersucht. Der Fokus richtet sich auf die vielfältigen intertextuellen und intermedialen Verknüpfungen des Stückes, die sich über einen Zeitraum von 40 Jahren erstrecken. „Der Andere“ inszeniert einen Fall von Bewusstseinsspaltung, in welchem der Protagonist, ein angesehener Berliner Staatsanwalt, unwissentlich ein nächtliches Doppelleben führt und infolgedessen einen Einbruch in sein eigenes Haus begeht. Hier wird insbesondere den Wechselbeziehungen von medizinischen und medialen Diskursen nachgegangen, da „Der Andere“ nicht nur von nervenmedizinischer Seite als psychiatrischer Fall aufgegriffen, sondern 1913 unter Beteiligung Lindaus als erster deutscher 'Autorenfilm' und 1930 als erster Tonfilm Robert Wienes produziert worden ist. Während filmhistorische Untersuchungen den Befund der errungenen 'Feuilletonfähigkeit' des Stummfilmes festhielten, blieb das Interesse an dem Theaterstück von Seiten der Literaturwissenschaft bislang gering. Ihm war der Status als Vorlage beschieden, die aufgrund ihrer gespaltenen Hauptfigur Verbindungen zu Robert Louis Stevensons „Strange Case of Dr Jekyll and Mr Hyde“ und Hippolyte Taines „De l'Intelligence“ herzustellen scheint, welche bis heute undifferenziert als zentrale Prätexte tradiert worden sind. Verfolgt man hingegen die Spur von weniger prominenten Prätexten, ergibt sich ein vollständigeres Bild. Es stellt sich heraus, dass Lindau eine wesentliche Anregung aus einer unter Pseudonym verfassten französischen Novelle bezog, die er selbst ins Deutsche übersetzte, und dass das Spaltungskonzept von „Der Andere“ diesem Prätext samt seiner Anlehnung an Hippolyte Taine folgt. Auch verweist die Novelle Jeanne Weills auf einen prominenten Fall des Mediziners Adrien Proust, dem Vater Marcel Prousts, der einen straffällig gewordenen Juristen hypnotisch behandelte. Die Diagnose alternierender Bewusstseinszustände führte in diesem Fall zur Annullierung des Schuldspruchs. Durch den Wechsel in das Medium Film konnten wiederum Verbindungen etabliert werden, die den Bezug auf diese Prätexte verlagerten, überschrieben und/oder aktualisierten. So zieht der Stummfilm als wissenschaftliche Rückversicherung allein die schon damals überholte Studie Taines heran, während die spätere Tonverfilmung das psychoanalytische Konzept Freuds als Erklärungsmuster anbietet. Die Untersuchung zeigt am Beispiel von „Der Andere“, dass mediale, literarische und psychologische Diskurse fest miteinander verwoben sind. Ideen und Konzepte zirkulieren zwischen ihnen, weshalb sich die Grenzen zwischen authentischen und fiktiven Fallgeschichten als durchlässig erweisen. Im Falle von „Der Andere“ setzten diese Austauschprozesse eine besonders hohe Produktivität frei.
Das Ziel der Arbeit ist es, die Vielfalt unterschiedlicher Einsatzmöglichkeiten von Social Software in der Hochschullehre unter einer didaktischen Perspektive kritisch in den Blick zu nehmen. So wird entsprechenden Webanwendungen im mediendidaktischen Diskurs das Potenzial zugesprochen, Lern- und Bildungsprozesse zu unterstützen. Jenseits dieser Potenziale sind bisher jedoch kaum typische Probleme beachtet worden, die mit dem Einsatz von Social Software in der Hochschule einhergehen. Zur Annäherung an den Forschungsgegenstand werden im ersten Teil der Arbeit (lehr- und) lerntheoretische Potenziale von Social Software anhand von Literatur aufgearbeitet. Für die Entwicklung eines konzeptuellen Rahmens für eine vergleichende Darstellung unterschiedlicher Umsetzungen werden ferner verschiedene didaktische Beschreibungs- und Analysemodelle diskutiert. Im zweiten Teil der Arbeit wird eine systematische – jedoch vom Umfang her begrenzte und dementsprechend exemplarische – Sichtung und Analyse empirisch basierter Arbeiten zum Einsatz von Social Software in der Hochschullehre durchgeführt. Mit Hilfe eines modifizierten didaktischen Szenariomodells wird die Vielfalt unterschiedlicher Einsatzformen kategoriengeleitet dargestellt. Als zentrales Thema hinsichtlich typischer Probleme konnte das Ausbleiben studentischer Partizipation sowie der Umgang der Lehrenden mit dieser Problematik herausgearbeitet werden.
Der vorliegende Text befasst sich heuristisch mit der Frage der Integration des Entfremdungsbegriffs der Kritischen Theorie in die Subjektwissenschaft, unter besonderer Berücksichtigung der subjektwissenschaftlichen Lerntheorie Klaus Holzkamps als Vertreter der Kritischen Psychologie. Ausgangspunkt ist die aus meiner Auseinandersetzung mit beiden Theorien entstandene Hypothese, dass (aus guten Gründen) der Begriff der Entfremdung in der Subjektwissenschaft gemieden, aber nicht durch ein anderes, kompatibles Konzept ersetzt wurde, dass die in der Entfremdung gefassten Dimensionen fassen könnte. Dies eröffnet auch die Frage, ob der Entfremdungsbegriff in einer Weise rekonstruiert werden kann, dass er für die Subjektwissenschaft anknüpffähig ist. Die Arbeit ist eine kategoriale und damit theoretisch-wissenschaftliche; sie betrifft aber in ihrem Bezug zu unserer Handlungsfähigkeit als gesellschaftliche Subjekte direkt Themen gesellschaftlicher (Selbst-)Organisation, in der Annahme, dass Theorie eine Bedeutung für die politische, pädagogische und andere Praxis hat und dass sie jene Erklärungsmuster bildet, mit denen wir für uns begründen, was warum passiert – und was deshalb getan werden muss. Wie Entfremdung in der bürgerlichen Gesellschaft funktioniert, in der Familie, in der Schule, auf der Arbeit, in Werbung und Fernsehen, das hat die Kritische Theorie in Anknüpfung an marxistische sozio-ökonomische Analysen umfassend analysiert. Den ersten Vertretern der Kritischen Theorie ging es bei der Ausarbeitung des Phänomens der Entfremdung um die Antwort auf die Frage, warum es weder in den 1920ern und Anfang der 30er Jahre noch nach dem NS-Faschismus eine Revolution gab. Beim Lesen vor allem der späten Texte von Adorno und Marcuse vermittelt sich eine relative Hoffnungslosigkeit; die kapitalistische Ideologie habe sich im Zuge der Vergesellschaftung so in den Köpfen zementiert, dass ein In-Frage-stellen des Status quo kaum möglich sei. Für eine emanzipatorische pädagogische oder politische Praxis sind diese Schlussfolgerungen enttäuschend, weil sie eine kritische Analyse der Gesellschaft liefert, dem Subjekt aber die Handlungsfähigkeit zur grundlegenden Veränderung seiner Lebensbedingungen weitgehend abspricht. Ein weiteres Problem liegt im Konzept der Entfremdung selbst, da von den Wissenschaftler_innen bestimmt wird, wer entfremdet ist und wer nicht. Die Menschen können (beispielsweise nach Marcuse) gerade aufgrund ihrer fortgeschrittenen Entfremdung dieser nicht mehr selbst gewahr werden. Die Kritische Psychologie im Gegensatz dazu setzt handlungsfähige Subjekte, die "nicht im Kapitalismus wie in einem Käfig" sitzen (Holzkamp 1984b). Dies begründet sich im subjektwissenschaftlichen Zugang der Erklärung menschlichen Handelns, das heißt der Einnahme des Subjektstandpunkts zur Erforschung desselben im Rahmen begründungstheoretischer Diskursmodelle.
Wissenschaftler sind regelmäßig mehr an Forschung interessiert als an Lehre. Dies hat verschiedene Gründe, auf die hier nicht im Einzelnen eingegangen werden soll. Einer dieser Gründe liegt im eigenen Professionsverständnis als Forscher/in bzw. Wissenschaftler/in begründet. Im Kern geht es dabei um Entdeckungen, um Innovationen, um die Weiterentwicklung vorhandenen Wissens. Lehre wird dem gegenüber als intermediärer Bereich gesehen, in dem vorhandenes Wissen reproduziert wird, der deshalb mehr dem Berufssystem zugehörig ist und weniger dem Wissenschaftssystem (Fangmann 2006, S. 30). Lehre erscheint deshalb als Belastung, die mit Forschung nicht korrespondiert, eher von Forschung abhält, insbesondere wenn Studierende den eigenen Lehrbemühungen passiv gegenüberstehen und der Ertrag der Lehre zweifelhaft erscheint. Im Folgenden soll die Verwandtschaft von Forschung und Lernen dargestellt und auf ihre korrespondierenden Logiken verwiesen werden. Grundlage dafür ist ein lerntheoretisches Modell, das Lernen subjekttheoretisch als soziales Handeln konzipiert (Holzkamp 1993), das mit Forschen vergleichbar ist. Forschungsbasierte Lehre wird im Kontext einer subjekttheoretischen Didaktik (Ludwig 2006) als Lehre im Format der Forschung vorgestellt, die Lernen unterstützen kann, weil Lernen dem Forschungsprozess ähnelt. Typen, Erträge und Umsetzungsprobleme forschungsbasierter Lehre werden kurz skizziert.
We study a new approach to determine the asymptotic behaviour of quantum many-particle systems near coalescence points of particles which interact via singular Coulomb potentials. This problem is of fundamental interest in electronic structure theory in order to establish accurate and efficient models for numerical simulations. Within our approach, coalescence points of particles are treated as embedded geometric singularities in the configuration space of electrons. Based on a general singular pseudo-differential calculus, we provide a recursive scheme for the calculation of the parametrix and corresponding Green operator of a nonrelativistic Hamiltonian. In our singular calculus, the Green operator encodes all the asymptotic information of the eigenfunctions. Explicit calculations and an asymptotic representation for the Green operator of the hydrogen atom and isoelectronic ions are presented.
Integrated real-time visualisation of massive 3D-Point clouds and geo-referenced textured dates
(2011)
On utilise de plus en plus les tests de verification pour confirmer l'atteinte du consommation d'oxygene maximale (VO(2 max)). Toutefois, le moment et les methodes d'evaluation varient d'un groupe de travail a l'autre. Les objectifs de cette etude sont de constater si on peut administrer un test de verification apres un test d'effort progressif ou s'il est preferable de le faire une autre journee et si on peut determiner le VO(2 max) tout de meme lors de la premiere seance chez des sujets ne repondant pas au critere de verification. Quarante sujets (age, 24 +/- 4 ans; VO(2 max), 50 +/- 7 mL center dot min(-1)center dot kg(-1)) participent a un test d'effort progressif sur tapis roulant et, 10 min plus tard, a un test de verification (VerifDay1) a 110 % de la velocite maximale (v(max)). Le critere de verification est un VO(2) de pointe au VerifDay1 < 5,5 % a la valeur retenue au test d'effort progressif. Les sujets ne repondant pas au critere de verification passent un autre test de verification, mais a 115 % du VerifDay1', et ce, 10 min plus tard pour confirmer le VO(2) de pointe du VerifDay1 en tant que VO(2 max). Tous les autres sujets repassent le VerifDay1 a un jour different (VerifDay2). Six sujets sur quarante ne repondent pas au critere de verification. Chez quatre d'entre eux, on confirme l'atteinte du VO(2 max) au VerifDay1'. Le VO(2) de pointe au VerifDay1 est equivalent a celui du VerifDay2 (3722 +/- 991 mL center dot min(-1) comparativement a 3752 +/- 995 mL center dot min(-1), p = 0,56), mais le temps jusqu'a l'epuisement est significativement plus long au VerifDay2 (2:06 +/- 0:22 min:s comparativement a 2:42 +/- 0:38 min:s, p < 0,001, n = 34). Le VO(2) de pointe obtenu au test de verification ne semble pas conditionne par un test d'effort progressif maximal prealable. On peut donc realiser le test d'effort progressif et le test de verification lors de la meme seance d'evaluation. Chez presque tous les individus ne repondant pas au critere de verification, on peut determiner le VO(2 max) au moyen d'un autre test de verification plus intense.
Background: Athletes may differ in their resting metabolic rate (RMR) from the general population. However, to estimate the RMR in athletes, prediction equations that have not been validated in athletes are often used. The purpose of this study was therefore to verify the applicability of commonly used RMR predictions for use in athletes. Methods: The RMR was measured by indirect calorimetry in 17 highly trained rowers and canoeists of the German national teams (BMI 24 +/- 2 kg/m(2), fat-free mass 69 +/- 15 kg). In addition, the RMR was predicted using Cunningham (CUN) and Harris-Benedict (HB) equations. A two-way repeated measures ANOVA was calculated to test for differences between predicted and measured RMR (alpha = 0.05). The root mean square percentage error (RMSPE) was calculated and the Bland-Altman procedure was used to quantify the bias for each prediction. Results: Prediction equations significantly underestimated the RMR in males (p < 0.001). The RMSPE was calculated to be 18.4% (CUN) and 20.9% (HB) in the entire group. The bias was 133 kcal/24 h for CUN and 202 kcal/24 h for HB. Conclusions: Predictions significantly underestimate the RMR in male heavyweight endurance athletes but not in females. In athletes with a high fat-free mass, prediction equations might therefore not be applicable to estimate energy requirements. Instead, measurement of the resting energy expenditure or specific prediction equations might be needed for the individual heavyweight athlete.
Neuromuscular control in functional situations and possible impairments due to Achilles tendinopathy are not well understood.
Thirty controls (CO) and 30 runners with Achilles tendinopathy (AT) were tested on a treadmill at 3.33 m s(-1) (12 km h(-1)). Neuromuscular activity of the lower leg (tibialis anterior, peroneal, and gastrocnemius muscle) was measured by surface electromyography. Mean amplitude values (MAV) for the gait cycle phases preactivation, weight acceptance and push-off were calculated and normalised to the mean activity of the entire gait cycle.
MAVs of the tibialis anterior did not differ between CO and AT in any gait cycle phase. The activation of the peroneal muscle was lower in AT in weight acceptance (p = 0.006), whereas no difference between CO and AT was found in preactivation (p = 0.71) and push-off (p = 0.83). Also, MAVs of the gastrocnemius muscle did not differ between AT and CO in preactivity (p = 0.71) but were reduced in AT during weight acceptance (p = 0.001) and push-off (p = 0.04).
Achilles tendinopathy does not seem to alter pre-programmed neural control but might induce mechanical deficits of the lower extremity during weight bearing (joint stability). This should be addressed in the therapy process of AT.
How much is too much? - a case report of nutritional supplement use of a high-performance athlete
(2011)
Although dietary nutrient intake is often adequate, nutritional supplement use is common among elite athletes. However, high-dose supplements or the use of multiple supplements may exceed the recommended daily allowance (RDA) of particular nutrients or even result in a daily intake above tolerable upper limits (UL). The present case report presents nutritional intake data and supplement use of a highly trained male swimmer competing at international level. Habitual energy and micronutrient intake were analysed by 3 d dietary reports. Supplement use and dosage were assessed, and total amount of nutrient supply was calculated. Micronutrient intake was evaluated based on RDA and UL as presented by the European Scientific Committee on Food, and maximum permitted levels in supplements (MPL) are given. The athlete's diet provided adequate micronutrient content well above RDA except for vitamin D. Simultaneous use of ten different supplements was reported, resulting in excess intake above tolerable UL for folate, vitamin E and Zn. Additionally, daily supplement dosage was considerably above MPL for nine micronutrients consumed as artificial products. Risks and possible side effects of exceeding UL by the athlete are discussed. Athletes with high energy intake may be at risk of exceeding UL of particular nutrients if multiple supplements are added. Therefore, dietary counselling of athletes should include assessment of habitual diet and nutritional supplement intake. Educating athletes to balance their diets instead of taking supplements might be prudent to prevent health risks that may occur with long-term excess nutrient intake.
Background: The elderly need strength training more and more as they grow older to stay mobile for their everyday activities. The goal of training is to reduce the loss of muscle mass and the resulting loss of motor function. The dose-response relationship of training intensity to training effect has not yet been fully elucidated.
Methods: PubMed was selectively searched for articles that appeared in the past 5 years about the effects and dose-response relationship of strength training in the elderly.
Results: Strength training in the elderly (> 60 years) increases muscle strength by increasing muscle mass, and by improving the recruitment of motor units, and increasing their firing rate. Muscle mass can be increased through training at an intensity corresponding to 60% to 85% of the individual maximum voluntary strength. Improving the rate of force development requires training at a higher intensity (above 85%), in the elderly just as in younger persons. It is now recommended that healthy old people should train 3 or 4 times weekly for the best results; persons with poor performance at the outset can achieve improvement even with less frequent training. Side effects are rare.
Conclusion: Progressive strength training in the elderly is efficient, even with higher intensities, to reduce sarcopenia, and to retain motor function.
Adequate energy intake in adolescent athletes is considered important. Total energy expenditure (TEE) can be calculated from resting energy expenditure (REE) and physical activity level (PAL). However, validated PAL recommendations are available for adult athletes only. Purpose was to comprise physical activity data in adolescent athletes and to establish PAL recommendations for this population. In 64 competitive athletes (15.3 +/- 1.5yr, 20.5 +/- 2.0kg/m(2)) and 14 controls (15.1 +/- 1.1yr, 21 +/- 2.1kg/m(2)) TEE was calculated using 7-day activity protocols validated against doubly-labeled water. REE was estimated by Schofield-HW equation, and PAL was calculated as TEE:REE. Observed PAL in adolescent athletes (1.90 +/- 0.35) did not differ compared with controls (1.84 +/- 0.32, p = .582) and was lower than recommended for adult athletes by the WHO. In conclusion, applicability of PAL values recommended for adult athletes to estimate energy requirements in adolescent athletes must be questioned. Instead, a PAL range of 1.75-2.05 is suggested.
Antiplatelet therapy in the era of percutaneous coronary intervention with drug-eluting balloons
(2011)
The high rate of restenosis associated with percutaneous coronary intervention (PCI) procedures can be reduced with the implantation of metallic stents into the stenotic vessels. The knowledge that neointimal formation can result in restenosis after stent implantation led to the development of drug-eluting stents (DES) which require long lasting antiplatelet therapy to avoid thrombotic complications. In the last years, the drug-eluting balloon (DEB) technology has emerged as an alternative option for the treatment of coronary and peripheral arteries. Clinical studies demonstrated the safety and effectiveness of DEB in various clinical scenarios and support the use of paclitaxel-eluting balloons for the treatment of in-stent restenosis, of small coronary arteries and bifurcations lesions. The protocols of DEB studies suggest that the dual antiplatelet therapy with aspirin and clopidogrel of four weeks after DEB is safe and effective.
The armed conflict in Afghanistan since 2001 has raised manifold questions pertaining to the humanitarian rules relative to the conduct of hostilities. In Afghanistan, as is often the case in so-called asymmetric conflicts, the geographical and temporal boundaries of the battlefield, and the distinction between civilians and fighters, are increasingly blurred. As a result, the risks for both civilians and soldiers operating in Afghanistan are high. The objective of this article is to assess whether - and if so how much - the armed conflict in Afghanistan has affected the application and interpretation of the principles of distinction, proportionality, and precaution - principles that form the core of legal rules pertaining to the conduct of hostilities.
This review addresses the functional organization of the mammalian cochlea under a comparative and evolutionary perspective. A comparison of the monotreme cochlea with that of marsupial and placental mammals highlights important evolutionary steps towards a hearing organ dedicated to process higher frequencies and a larger frequency range than found in non-mammalian vertebrates. Among placental mammals, there are numerous cochlear specializations which relate to hearing range in adaptation to specific habitats that are superimposed on a common basic design. These are illustrated by examples of specialist ears which evolved excellent high frequency hearing and echolocation (bats and dolphins) and by the example of subterranean rodents with ears devoted to processing low frequencies. Furthermore, structural functional correlations important for tonotopic cochlear organization and predictions of hearing capabilities are discussed.
Target-distance computation by cortical neurons sensitive to echo delay is an essential characteristic of the auditory system of insectivorous bats. To assess if functional requirements such as detection of small insects versus larger stationary surfaces of plants are reflected in cortical properties, we compare delay-tuned neurons in a frugivorous (C. perspicillata, CP) and an insectivorous (P. parnellii, PP) bat species that belong to related families within the superfamily of Noctilionoidea. The bandwidth and shape of delay-tuning curves and the range of characteristic delays are similar in both species and hence are not related to different echolocation strategies. Most units respond at 2-6 ms echo delay with most sensitive thresholds of 20-30 dB SPL. In CP, units tuned to delays > 12 ms are slightly more abundant and are more sensitive than in PP. All delay-tuned neurons in CP reliably respond to single pure-tone stimuli, whereas such responses are only observed in 49% of delay-tuned units in PP. The cortical representation of echo delay (chronotopy) covers a larger area in CP but is less precise than described in PP. Since chronotopy is absent in certain other insectivorous bat species, it is open if these differences in topography are related to echolocation behaviour.
Lissencephaly is a severe brain developmental disease in human infants, which is usually caused by mutations in either of two genes, LIS1 and DCX. These genes encode proteins interacting with both the microtubule and the actin systems. Here, we review the implications of data on Dictyostelium LIS1 for the elucidation of LIS1 function in higher cells and emphasize the role of LIS1 and nuclear envelope proteins in nuclear positioning, which is also important for coordinated cell migration during neocortical development. Furthermore, for the first time we characterize Dictyostelium DCX, the only bona fide orthologue of human DCX outside the animal kingdom. We show that DCX functionally interacts with LIS1 and that both proteins have a cytoskeleton-independent function in chemotactic signaling during development. Dictyostelium LIS1 is also required for proper attachment of the centrosome to the nucleus and, thus, nuclear positioning, where the association of these two organelles has turned out to be crucial. It involves not only dynein and dynein-associated proteins such as LIS1 but also SUN proteins of the nuclear envelope. Analyses of Dictyostelium SUN1 mutants have underscored the importance of these proteins for the linkage of centrosomes and nuclei and for the maintenance of chromatin integrity. Taken together, we show that Dictyostelium amoebae, which provide a well-established model to study the basic aspects of chemotaxis, cell migration and development, are well suited for the investigation of the molecular and cell biological basis of developmental diseases such as lissencephaly.
We have localized TACC to the microtubule-nucleating centrosomal corona and to microtubule plus ends. Using RNAi we proved that Dictyostelium TACC promotes microtubule growth during interphase and mitosis. For the first time we show in vivo that both TACC and XMAP215 family proteins can be differentially localized to microtubule plus ends during interphase and mitosis and that TACC is mainly required for recruitment of an XMAP215-family protein to interphase microtubule plus ends but not for recruitment to centrosomes and kinetochores. Moreover, we have now a marker to study dynamics and behavior of microtubule plus ends in living Dictyostelium cells. In a combination of live cell imaging of microtubule plus ends and fluorescence recovery after photobleaching (FRAP) experiments of GFP-alpha-tubulin cells we show that Dictyostelium microtubules are dynamic only in the cell periphery, while they remain stable at the centrosome, which also appears to harbor a dynamic pool of tubulin dimers.