Refine
Has Fulltext
- yes (212) (remove)
Year of publication
- 2008 (212) (remove)
Document Type
- Doctoral Thesis (77)
- Monograph/Edited Volume (39)
- Postprint (34)
- Master's Thesis (18)
- Part of Periodical (12)
- Preprint (7)
- Article (6)
- Working Paper (6)
- Review (5)
- Conference Proceeding (4)
Language
- German (122)
- English (87)
- French (1)
- Multiple languages (1)
- Spanish (1)
Is part of the Bibliography
- yes (212) (remove)
Keywords
- Unterricht (4)
- Chitooligosaccharide (3)
- Chitooligosaccharides (3)
- Herrschaft (3)
- Massenspektrometrie (3)
- Sorben (3)
- Technik (3)
- magnetic fields (3)
- Asie Centrale (2)
- Brandenburg (2)
Institute
- Institut für Biochemie und Biologie (21)
- Institut für Chemie (17)
- Mathematisch-Naturwissenschaftliche Fakultät (16)
- Wirtschaftswissenschaften (16)
- Institut für Physik und Astronomie (12)
- MenschenRechtsZentrum (12)
- Sozialwissenschaften (10)
- Department Linguistik (9)
- Institut für Umweltwissenschaften und Geographie (9)
- Zentrum für Lehrerbildung und Bildungsforschung (ZeLB) (9)
Pri ha-Pardes (Früchte des Obstgartens) ist eine Reihe der Vereinigung für Jüdische Studien e.V., welche in Verbindung mit dem Institut für Jüdische Studien der Universität Potsdam publiziert wird. Pri ha-Pardes möchte kleineren wissenschaftlichen Studien, Forschungen am Rande der großen Disziplinen und exzellenten Masterarbeiten eine Publikationsplattform bieten. Der Erstgeburtsstreit der Brüder Jakob und Esau wird seit jeher ethnologisch rezipiert und diente von frühester Zeit an, sowohl auf jüdischer als auch auf christlicher Seite, in vielfacher Auslegung als Grundlage religiöser und ‚politischer’ Identitätsbildung. Im Zuge dieser Deutung geriet jedoch die Frage in den Hintergrund, weshalb Gott ausgerechnet den ‚Betrüger’ Jakob zum dritten Stammvater Israels erwählt. Im vorliegenden vierten Band dieser Reihe stellt sich Daniel Vorpahl genau diesem Problem und klärt in einer ausführlichen exegetischen Untersuchung der biblischen Jakob-Esau-Erzählung Hintergründe, Verlauf und Bedeutung des Betrugsfalls sowie dessen Folgen. Anhand zentraler Bestandteile dieser Tradition, wie dem Motiv des Brüderstreits, der Begriffe Erstgeburtsrecht, Segen und Verheißung, wird darüber hinaus die Stellung der Jakob-Esau- Erzählung innerhalb der gesamten Vätergeschichte beleuchtet. Dabei werden nicht nur die begründeten Umstände Jakobs Erwählung erläutert, sondern vor allem auch die sozialethische Relevanz der Jakob-Esau-Tradition veranschaulicht.
Nanostructured inorganic materials are routinely synthesized by the use of templates. Depending on the synthesis conditions of the product material, either “soft” or “hard” templates can be applied. For sol-gel processes, usually “soft” templating techniques are employed, while “hard” templates are used for high temperature synthesis pathways. In classical templating approaches, the template has the unique role of structure directing agent, in the sense that it is not participating to the chemical formation of the resulting material. This work investigates a new templating pathway to nanostructured materials, where the template is also a reagent in the formation of the final material. This concept is described as “reactive templating” and opens a synthetic path toward materials which cannot be synthesised on a nanometre scale by classical templating approaches. Metal nitrides are such kind of materials. They are usually produced by the conversion of metals or metal oxides in ammonia flow at high temperature (T > 1000°C), which make the application of classical templating techniques difficult. Graphitic carbon nitride, g-C3N4, despite its fundamental and theoretical importance, is probably one of the most promising materials to complement carbon in material science and many efforts are put in the synthesis of this material. A simple polyaddition/elimination reaction path at high temperature (T = 550°C) allows the polymerisation of cyanamide toward graphitic carbon nitride solids. By hard templating, using nanostructured silica or aluminium oxide as nanotemplates, a variety of nanostructured graphitic carbon nitrides such as nanorods, nanotubes, meso- and macroporous powders could be obtained by nanocasting or nanocoating. Due to the special semi-conducting properties of the graphitic carbon nitride matrix, the nanostructured graphitic carbon nitrides show unexpected catalytic activity for the activation of benzene in Friedel-Crafts type reactions, making this material an interesting metal free catalyst. Furthermore, due to the chemical composition of g-C3N4 and the fact that it is totally decomposed at temperatures between 600°C and 800°C even under inert atmosphere, g-C3N4 was shown to be a good nitrogen donor for the synthesis of early transition metal nitrides at high temperatures. Thus using the nanostructured carbon nitrides as “reactive templates” or “nanoreactors”, various metal nitride nanostructures, such as nanoparticles and porous frameworks could be obtained at high temperature. In this approach the carbon nitride nanostructure played both the role of the nitrogen source and of the exotemplate, imprinting its size and shape to the resulting metal nitride nanostructure.
In dieser Arbeit wurden Zusammenhänge zwischen den sexuellen Erfahrungen junger Frauen und Männer, ihren Persönlichkeitseigenschaften und ihren sexualmoralischen Einstellungen auf der einen Seite und der Einschätzung ihrer sexuellen Handlungsfähigkeit auf der anderen Seite untersucht. Die Grundlage für das Modell der sexuellen Handlungsfähigkeit bildeten die Vorstellungen der Arbeitsgruppe um Matthias Grundmann (Grundmann et al. 2006) sowie von Emirbayer und Mische (1998). Das in dieser Arbeit entwickelte Modell zur sexuellen Handlungsfähigkeit ist ein multidimensionales Konstrukt, das sich aus den Komponenten „sexuelle Kommunikation“, „sexuelle Zufriedenheit“, „sexuelle Reziprozität“ sowie „sexuelle Eigenverantwortung“ zusammensetzt. „Sexuelle Kommunikation“ beinhaltet die Fähigkeit, sexuelle Wünsche zum Ausdruck bringen zu können. „Sexuelle Zufriedenheit“ beschreibt den Grad der Zufriedenheit mit dem eigenen Sexualleben. „Sexuelle Reziprozität“ verweist auf die Fähigkeit, sexuelle Aufmerksamkeiten sowohl Annehmen als auch Geben zu können. „Sexuelle Eigenverantwortung“ betont schließlich die Einschätzung, inwieweit die eigene Sexualität selbst bestimmt gestaltet werden kann. Mit Emirbayer und Mische werden die sexuellen Erfahrungen der Frauen und Männer als Korrelate der Einschätzung der Dimensionen der sexuellen Handlungsfähigkeit betrachtet. Mit Grundmann et al. sind es zudem verschiedene Persönlichkeitseigenschaften sowie sexualmoralische Einstellungen, deren Beschaffenheiten Aussagen über die sexuelle Handlungsfähigkeit erlauben. Um die Thematik der sexuellen Handlungsfähigkeit empirisch zu betrachten, wurden im Jahr 2006 695 junge Potsdamer/innen im Alter von 19 bis 21 Jahren im Rahmen einer standardisierten Erhebung zu ihren sexuellen und Beziehungserfahrungen befragt. Die empirischen Analysen verdeutlichen eine ko-konstruktive Anschauung von der Entwicklung sexueller Handlungsfähigkeit. Diese entsteht nicht im Individuum allein, sondern innerhalb der Interaktions- und Aushandlungsprozesse des Individuums mit den Anderen seiner sozialen und sexuellen Umwelt. Von Bedeutung erweisen dabei sowohl die Erlebnisse der sexuellen Biografie als auch die Persönlichkeitsmerkmale eines jeden Einzelnen. Nur geringfügig erscheinen die erfragten sexualmoralischen Ansichten von Bedeutung.
This work analyzes the saving and consumption behavior of agents faced with the possibility of unemployment in a dynamic and stochastic life cycle model. The intertemporal optimization is based on Dynamic Programming with a backward recursion algorithm. The implemented uncertainty is not based on income shocks as it is done in traditional life cycle models but uses Markov probabilities where the probability for the next employment status of the agent depends on the current status. The utility function used is a CRRA function (constant relative risk aversion), combined with a CES function (constant elasticity of substitution) and has several consumption goods, a subsistence level, money and a bequest function.
This thesis provides a novel view on the early stage of crystallization utilizing calcium carbonate as a model system. Calcium carbonate is of great economical, scientific and ecological importance, because it is a major part of water hardness, the most abundant Biomineral and forms huge amounts of geological sediments thus binding large amounts of carbon dioxide. The primary experiments base on the evolution of supersaturation via slow addition of dilute calcium chloride solution into dilute carbonate buffer. The time-dependent measurement of the Ca2+ potential and concurrent pH = constant titration facilitate the calculation of the amount of calcium and carbonate ions bound in pre-nucleation stage clusters, which have never been detected experimentally so far, and in the new phase after nucleation, respectively. Analytical Ultracentrifugation independently proves the existence of pre-nucleation stage clusters, and shows that the clusters forming at pH = 9.00 have a proximately time-averaged size of altogether 70 calcium and carbonate ions. Both experiments show that pre-nucleation stage cluster formation can be described by means of equilibrium thermodynamics. Effectively, the cluster formation equilibrium is physico-chemically characterized by means of a multiple-binding equilibrium of calcium ions to a ‘lattice’ of carbonate ions. The evaluation gives GIBBS standard energy for the formation of calcium/carbonate ion pairs in clusters, which exhibits a maximal value of approximately 17.2 kJ mol^-1 at pH = 9.75 and relates to a minimal binding strength in clusters at this pH-value. Nucleated calcium carbonate particles are amorphous at first and subsequently become crystalline. At high binding strength in clusters, only calcite (the thermodynamically stable polymorph) is finally obtained, while with decreasing binding strength in clusters, vaterite (the thermodynamically least stable polymorph) and presumably aragonite (the thermodynamically intermediate stable polymorph) are obtained additionally. Concurrently, two different solubility products of nucleated amorphous calcium carbonate (ACC) are detected at low binding strength and high binding strength in clusters (ACC I 3.1EE-8 M^2, ACC II 3.8EE-8 M^2), respectively, indicating the precipitation of at least two different ACC species, while the clusters provide the precursor species of ACC. It is proximate that ACC I may relate to calcitic ACC –i.e. ACC exhibiting short range order similar to the long range order of calcite and that ACC II may relate to vateritic ACC, which will subsequently transform into the particular crystalline polymorph as discussed in the literature, respectively. Detailed analysis of nucleated particles forming at minimal binding strength in clusters (pH = 9.75) by means of SEM, TEM, WAXS and light microscopy shows that predominantly vaterite with traces of calcite forms. The crystalline particles of early stages are composed of nano-crystallites of approximately 5 to 10 nm size, respectively, which are aligned in high mutual order as in mesocrystals. The analyses of precipitation at pH = 9.75 in presence of additives –polyacrylic acid (pAA) as a model compound for scale inhibitors and peptides exhibiting calcium carbonate binding affinity as model compounds for crystal modifiers- shows that ACC I and ACC II are precipitated in parallel: pAA stabilizes ACC II particles against crystallization leading to their dissolution for the benefit of crystals that form from ACC I and exclusively calcite is finally obtained. Concurrently, the peptide additives analogously inhibit the formation of calcite and exclusively vaterite is finally obtained in case of one of the peptide additives. These findings show that classical nucleation theory is hardly applicable for the nucleation of calcium carbonate. The metastable system is stabilized remarkably due to cluster formation, while clusters forming by means of equilibrium thermodynamics are the nucleation relevant species and not ions. Most likely, the concept of cluster formation is a common phenomenon occurring during the precipitation of hardly soluble compounds as qualitatively shown for calcium oxalate and calcium phosphate. This finding is important for the fundamental understanding of crystallization and nucleation-inhibition and modification by additives with impact on materials of huge scientific and industrial importance as well as for better understanding of the mass transport in crystallization. It can provide a novel basis for simulation and modelling approaches. New mechanisms of scale formation in Bio- and Geomineralization and also in scale inhibition on the basis of the newly reported reaction channel need to be considered.
Background: For omics experiments, detailed characterisation of experimental material with respect to its genetic features, its cultivation history and its treatment history is a requirement for analyses by bioinformatics tools and for publication needs. Furthermore, meta-analysis of several experiments in systems biology based approaches make it necessary to store this information in a standardised manner, preferentially in relational databases. In the Golm Plant Database System, we devised a data management system based on a classical Laboratory Information Management System combined with web-based user interfaces for data entry and retrieval to collect this information in an academic environment.
Results: The database system contains modules representing the genetic features of the germplasm, the experimental conditions and the sampling details. In the germplasm module, genetically identical lines of biological material are generated by defined workflows, starting with the import workflow, followed by further workflows like genetic modification (transformation), vegetative or sexual reproduction. The latter workflows link lines and thus create pedigrees. For experiments, plant objects are generated from plant lines and united in so-called cultures, to which the cultivation conditions are linked. Materials and methods for each cultivation step are stored in a separate ACCESS database of the plant cultivation unit. For all cultures and thus every plant object, each cultivation site and the culture's arrival time at a site are logged by a barcode-scanner based system. Thus, for each plant object, all site-related parameters, e. g. automatically logged climate data, are available. These life history data and genetic information for the plant objects are linked to analytical results by the sampling module, which links sample components to plant object identifiers. This workflow uses controlled vocabulary for organs and treatments. Unique names generated by the system and barcode labels facilitate identification and management of the material. Web pages are provided as user interfaces to facilitate maintaining the system in an environment with many desktop computers and a rapidly changing user community. Web based search tools are the basis for joint use of the material by all researchers of the institute.
Conclusion: The Golm Plant Database system, which is based on a relational database, collects the genetic and environmental information on plant material during its production or experimental use at the Max-Planck-Institute of Molecular Plant Physiology. It thus provides information according to the MIAME standard for the component 'Sample' in a highly standardised format. The Plant Database system thus facilitates collaborative work and allows efficient queries in data analysis for systems biology research.
Die Arbeit beschreibt die Analyse von Beobachtungen zweier Sonnenflecken in zweidimensionaler Spektro-Polarimetrie. Die Daten wurden mit dem Fabry-Pérot-Interferometer der Universität Göttingen am Vakuum-Turm-Teleskop auf Teneriffa erfasst. Von der aktiven Region NOAA 9516 wurde der volle Stokes-Vektor des polarisierten Lichts in der Absorptionslinie bei 630,249 nm in Einzelaufnahmen beobachtet, und von der aktiven Region NOAA 9036 wurde bei 617,3 nm Wellenlänge eine 90-minütige Zeitserie des zirkular polarisierten Lichts aufgezeichnet. Aus den reduzierten Daten werden Ergebniswerte für Intensität, Geschwindigkeit in Beobachtungsrichtung, magnetische Feldstärke sowie verschiedene weitere Plasmaparameter abgeleitet. Mehrere Ansätze zur Inversion solarer Modellatmosphären werden angewendet und verglichen. Die teilweise erheblichen Fehlereinflüsse werden ausführlich diskutiert. Das Frequenzverhalten der Ergebnisse und Abhängigkeiten nach Ort und Zeit werden mit Hilfe der Fourier- und Wavelet-Transformation weiter analysiert. Als Resultat lässt sich die Existenz eines hochfrequenten Bandes für Geschwindigkeitsoszillationen mit einer zentralen Frequenz von 75 Sekunden (13 mHz) bestätigen. In größeren photosphärischen Höhen von etwa 500 km entstammt die Mehrheit der damit zusammenhängenden Schockwellen den dunklen Anteilen der Granulen, im Unterschied zu anderen Frequenzbereichen. Die 75-Sekunden-Oszillationen werden ebenfalls in der aktiven Region beobachtet, vor allem in der Lichtbrücke. In den identifizierten Bändern oszillatorischer Power der Geschwindigkeit sind in einer dunklen, penumbralen Struktur sowie in der Lichtbrücke ausgeprägte Strukturen erkennbar, die sich mit einer Horizontalgeschwindigkeit von 5-8 km/s in die ruhige Sonne bewegen. Diese zeigen einen deutlichen Anstieg der Power, vor allem im 5-Minuten-Band, und stehen möglicherweise in Zusammenhang mit dem Phänomen der „Evershed-clouds“. Eingeschränkt durch ein sehr geringes Signal-Rausch-Verhältnis und hohe Fehlereinflüsse werden auch Magnetfeldvariationen mit einer Periode von sechs Minuten am Übergang von Umbra zu Penumbra in der Nähe einer Lichtbrücke beobachtet. Um die beschriebenen Resultate zu erzielen, wurden bestehende Visualisierungsverfahren der Frequenzanalyse verbessert oder neu entwickelt, insbesondere für Ergebnisse der Wavelet-Transformation.
Der vorliegende Beitrag untersucht das Potential und die Bedingungen alternativer Regulierungsformen vor dem Hintergrund von Better Regulation in Deutschland. Nahezu alle EU- und OECD-Staaten betreiben heute umfassende politische Reformprogramme zur Modernisierung der Regulierungsarchitekturen, die unter dem Label Better Regulation subsumiert werden. Die Zielsetzung dieser Programme besteht zum einen in der wirtschaftsfreundlichen Reduktion von Regulierungskosten und zum anderen in der Effektivitätssteigerung von Regulierung durch Vermeidung unintendierter Nebeneffekte. Better Regulation ist ein Toolkit verschiedener metaregulativer Policy-Instrumente, deren programmatische Zusammensetzung vom nationalen politischen Kontext abhängt. Im Rahmen der parallel verlaufenden Reformagenden werden überdies alternative Regulierungsformen von verschiedenen Advokaten besserer Regulierung thematisiert, und als Alternative zur rein staatlichen, hierarchischen Command-and-Control-Regulierung (CaC-Regulierung) promotet, jedoch weder näher auf deren Bedingungen noch deren Konsequenzen einzugehen. Den optimistischen Vorstellungen eines evidenzbasierten Regulatory Managements folgend, erfolgt die Prüfung und Analyse alternativer Regelungsformen im Zuge der Gesetzesfolgenabschätzung (GFA; Regulatory Impact Assessment RIA). Bisher fristen alternative Regulierungsformen allerdings ein Dasein im Schatten von Standardkosten-Modell, RIA und Co. und werden von den Policy-Makern nicht systematisch in Betracht gezogen oder eingesetzt. CaC-Regulierung ist und bleibt das dominante Steuerungsinstrument des Staates. Es existieren jedoch zahlreiche diskursive Anknüpfungspunkte einschließlich zahlreicher Kritiken an der hierarchisch-regulativen Steuerung, welche die Auseinandersetzung mit alternativen Regulierungsformen begründen. Ziel dieses Papieres ist es daher, die in der Kritik stehende CaC-Regulierung Modellen alternativer Regulierungsformen entgegenzustellen, wobei alternative Regulierung mit den Konzepten Selbstregulierung, Koregulierung und regulierter Selbstregulierung eng definiert wird, und nur jene Konstellationen betrachtet werden, die kooperativ zwischen Regierung und Wirtschaft operieren. Ebenso wird der Versuch unternommen, die mannigfaltigen Konzepte und Erscheinungsformen alternativer Regulierung zu definieren und zu kategorisieren. Im Anschluss an den theoretischen Part erfolgt im nächsten Schritt die Identifikation der Einsatz- und Erfolgsbedingungen alternativer Regulierung. Dies geschieht anhand zweier empirischer Fallbeispiele aus den Politikfeldern Berufsbildungspolitik („der Ausbildungspakt der deutschen Wirtschaft“) sowie Umweltpolitik („die Mehrwegquotenverpflichtung“), wobei gezielt ein erfolgreiches und gescheitertes Beispiel alternativer Regulierung verglichen werden und Erfolgsfaktoren abgeleitet werden. Das Ergebnis ist, dass alternative Regulierung gewisse Potentiale und Anreize für staatliche wie privatwirtschaftliche Akteure bietet, aber der Einsatz dieser Steuerungsformen höchst voraussetzungsvoll ist und nur in wenigen Politikfeldern möglich und zu empfehlen ist. So besteht das Potential alternativer Regulierungsformen vor allem in der ganzheitlichen Senkung von Regulierungskosten (Befolgungs- und Vollzugskosten) und in der Erhöhung der Steuerbarkeit der Adressaten. Allerdings sind die korporativen Akteure auf beiden Seiten zum einen nicht immer hinreichend auf diese Form indirekter Steuerung vorbereitet. Zum anderen wird alternative Regulierung durch die Fragmentierung und Schwäche von Wirtschaftsverbänden sowie durch Interessengegensätze unter den Regelungsadressaten gehindert, die in Trittbrettfahrertum und dem letztlichen Scheitern selbstregulativer Verpflichtungen münden. Als entscheidende, aber anspruchsvolle Erfolgskomponente erweisen sich die politische Kommunikation und die Durchsetzbarkeit staatlicher Sanktionen sowie die Erfolgskontrolle, um die Regelungseinhaltung durch die Wirtschaft zu gewährleisten. Generell ist zu konstatieren, dass alternative Regulierungsformen dort zustande kommen, wo sich konzentrierter Widerstand auf Seiten der Adressaten gegen geplante, autoritative Steuerung abzeichnet, eine gewisse Pfadabhängigkeit bzw. eine Historie sektoraler Selbstregulierung vorliegt und eine Win-Win-Situation bei der Kooperation für Politik und Wirtschaft ersichtlich ist. In der Konsequenz zeigen die Ergebnisse, dass alternative Regulierung nicht nach einem synoptisch-rationalen Modell politischer Prozesse entsteht, sondern ein ursprünglich nicht intendiertes Produkt Garbage Can-artiger Verhandlungen mit einem hohen Konfliktniveau darstellt. Folglich ist das Resultat für die Vorstellung einer „Rational Regulatory Choice“ induzierenden Better Regulation-Agenda desillusionierend.
Flood polders are part of the flood risk management strategy for many lowland rivers. They are used for the controlled storage of flood water so as to lower peak discharges of large floods. Consequently, the flood hazard in adjacent and downstream river reaches is decreased in the case of flood polder utilisation. Flood polders are usually dry storage reservoirs that are typically characterised by agricultural activities or other land use of low economic and ecological vulnerability. The objective of this thesis is to analyse hydraulic, environmental and economic impacts of the utilisation of flood polders in order to draw conclusions for their management. For this purpose, hydrodynamic and water quality modelling as well as an economic vulnerability assessment are employed in two study areas on the Middle Elbe River in Germany. One study area is an existing flood polder system on the tributary Havel, which was put into operation during the Elbe flood in summer 2002. The second study area is a planned flood polder, which is currently in the early planning stages. Furthermore, numerical models of different spatial dimensionality, ranging from zero- to two-dimensional, are applied in order to evaluate their suitability for hydrodynamic and water quality simulations of flood polders in regard to performance and modelling effort. The thesis concludes with overall recommendations on the management of flood polders, including operational schemes and land use. In view of future changes in flood frequency and further increasing values of private and public assets in flood-prone areas, flood polders may be effective and flexible technical flood protection measures that contribute to a successful flood risk management for large lowland rivers.
Although educational content in electronic form is increasing dramatically, its usage in an educational environment is poor, mainly due to the fact that there is too much of (unreliable) redundant, and not relevant information. Finding appropriate answers is a rather difficult task being reliant on the user filtering of the pertinent information from the noise. Turning knowledge bases like the online tele-TASK archive into useful educational resources requires identifying correct, reliable, and "machine-understandable" information, as well as developing simple but efficient search tools with the ability to reason over this information. Our vision is to create an E-Librarian Service, which is able to retrieve multimedia resources from a knowledge base in a more efficient way than by browsing through an index, or by using a simple keyword search. In our E-Librarian Service, the user can enter his question in a very simple and human way; in natural language (NL). Our premise is that more pertinent results would be retrieved if the search engine understood the sense of the user's query. The returned results are then logical consequences of an inference rather than of keyword matchings. Our E-Librarian Service does not return the answer to the user's question, but it retrieves the most pertinent document(s), in which the user finds the answer to his/her question. Among all the documents that have some common information with the user query, our E-Librarian Service identifies the most pertinent match(es), keeping in mind that the user expects an exhaustive answer while preferring a concise answer with only little or no information overhead. Also, our E-Librarian Service always proposes a solution to the user, even if the system concludes that there is no exhaustive answer. Our E-Librarian Service was implemented prototypically in three different educational tools. A first prototype is CHESt (Computer History Expert System); it has a knowledge base with 300 multimedia clips that cover the main events in computer history. A second prototype is MatES (Mathematics Expert System); it has a knowledge base with 115 clips that cover the topic of fractions in mathematics for secondary school w.r.t. the official school programme. All clips were recorded mainly by pupils. The third and most advanced prototype is the "Lecture Butler's E-Librarain Service"; it has a Web service interface to respect a service oriented architecture (SOA), and was developed in the context of the Web-University project at the Hasso-Plattner-Institute (HPI). Two major experiments in an educational environment - at the Lycée Technique Esch/Alzette in Luxembourg - were made to test the pertinence and reliability of our E-Librarian Service as a complement to traditional courses. The first experiment (in 2005) was made with CHESt in different classes, and covered a single lesson. The second experiment (in 2006) covered a period of 6 weeks of intensive use of MatES in one class. There was no classical mathematics lesson where the teacher gave explanations, but the students had to learn in an autonomous and exploratory way. They had to ask questions to the E-Librarian Service just the way they would if there was a human teacher.
The uptake of nutrients and their subsequent chemical conversion by reactions which provide energy and building blocks for growth and propagation is a fundamental property of life. This property is termed metabolism. In the course of evolution life has been dependent on chemical reactions which generate molecules that are common and indispensable to all life forms. These molecules are the so-called primary metabolites. In addition, life has evolved highly diverse biochemical reactions. These reactions allow organisms to produce unique molecules, the so-called secondary metabolites, which provide a competitive advantage for survival. The sum of all metabolites produced by the complex network of reactions within an organism has since 1998 been called the metabolome. The size of the metabolome can only be estimated and may range from less than 1,000 metabolites in unicellular organisms to approximately 200,000 in the whole plant kingdom. In current biology, three additional types of molecules are thought to be important to the understanding of the phenomena of life: (1) the proteins, in other words the proteome, including enzymes which perform the metabolic reactions, (2) the ribonucleic acids (RNAs) which constitute the so-called transcriptome, and (3) all genes of the genome which are encoded within the double strands of desoxyribonucleic acid (DNA). Investigations of each of these molecular levels of life require analytical technologies which should best enable the comprehensive analysis of all proteins, RNAs, et cetera. At the beginning of this thesis such analytical technologies were available for DNA, RNA and proteins, but not for metabolites. Therefore, this thesis was dedicated to the implementation of the gas chromatography – mass spectrometry technology, in short GC-MS, for the in-parallel analysis of as many metabolites as possible. Today GC-MS is one of the most widely applied technologies and indispensable for the efficient profiling of primary metabolites. The main achievements and research topics of this work can be divided into technological advances and novel insights into the metabolic mechanisms which allow plants to cope with environmental stresses. Firstly, the GC-MS profiling technology has been highly automated and standardized. The major technological achievements were (1) substantial contributions to the development of automated and, within the limits of GC-MS, comprehensive chemical analysis, (2) contributions to the implementation of time of flight mass spectrometry for GC-MS based metabolite profiling, (3) the creation of a software platform for reproducible GC-MS data processing, named TagFinder, and (4) the establishment of an internationally coordinated library of mass spectra which allows the identification of metabolites in diverse and complex biological samples. In addition, the Golm Metabolome Database (GMD) has been initiated to harbor this library and to cope with the increasing amount of generated profiling data. This database makes publicly available all chemical information essential for GC-MS profiling and has been extended to a global resource of GC-MS based metabolite profiles. Querying the concentration changes of hundreds of known and yet non-identified metabolites has recently been enabled by uploading standardized, TagFinder-processed data. Long-term technological aims have been pursued with the central aims (1) to enhance the precision of absolute and relative quantification and (2) to enable the combined analysis of metabolite concentrations and metabolic flux. In contrast to concentrations which provide information on metabolite amounts, flux analysis provides information on the speed of biochemical reactions or reaction sequences, for example on the rate of CO2 conversion into metabolites. This conversion is an essential function of plants which is the basis of life on earth. Secondly, GC-MS based metabolite profiling technology has been continuously applied to advance plant stress physiology. These efforts have yielded a detailed description of and new functional insights into metabolic changes in response to high and low temperatures as well as common and divergent responses to salt stress among higher plants, such as Arabidopsis thaliana, Lotus japonicus and rice (Oryza sativa). Time course analysis after temperature stress and investigations into salt dosage responses indicated that metabolism changed in a gradual manner rather than by stepwise transitions between fixed states. In agreement with these observations, metabolite profiles of the model plant Lotus japonicus, when exposed to increased soil salinity, were demonstrated to have a highly predictive power for both NaCl accumulation and plant biomass. Thus, it may be possible to use GC-MS based metabolite profiling as a breeding tool to support the selection of individual plants that cope best with salt stress or other environmental challenges.
In biological cells, the long-range intracellular traffic is powered by molecular motors which transport various cargos along microtubule filaments. The microtubules possess an intrinsic direction, having a 'plus' and a 'minus' end. Some molecular motors such as cytoplasmic dynein walk to the minus end, while others such as conventional kinesin walk to the plus end. Cells typically have an isopolar microtubule network. This is most pronounced in neuronal axons or fungal hyphae. In these long and thin tubular protrusions, the microtubules are arranged parallel to the tube axis with the minus ends pointing to the cell body and the plus ends pointing to the tip. In such a tubular compartment, transport by only one motor type leads to 'motor traffic jams'. Kinesin-driven cargos accumulate at the tip, while dynein-driven cargos accumulate near the cell body. We identify the relevant length scales and characterize the jamming behaviour in these tube geometries by using both Monte Carlo simulations and analytical calculations. A possible solution to this jamming problem is to transport cargos with a team of plus and a team of minus motors simultaneously, so that they can travel bidirectionally, as observed in cells. The presumably simplest mechanism for such bidirectional transport is provided by a 'tug-of-war' between the two motor teams which is governed by mechanical motor interactions only. We develop a stochastic tug-of-war model and study it with numerical and analytical calculations. We find a surprisingly complex cooperative motility behaviour. We compare our results to the available experimental data, which we reproduce qualitatively and quantitatively.
Bio-jETI
(2008)
Background: With Bio-jETI, we introduce a service platform for interdisciplinary work on biological application domains and illustrate its use in a concrete application concerning statistical data processing in R and xcms for an LC/MS analysis of FAAH gene knockout.
Methods: Bio-jETI uses the jABC environment for service-oriented modeling and design as a graphical process modeling tool and the jETI service integration technology for remote tool execution.
Conclusions: As a service definition and provisioning platform, Bio-jETI has the potential to become a core technology in interdisciplinary service orchestration and technology transfer. Domain experts, like biologists not trained in computer science, directly define complex service orchestrations as process models and use efficient and complex bioinformatics tools in a simple and intuitive way.
Bridehood revisited
(2008)
Background
Serotonin induces fluid secretion from Calliphora salivary glands by the parallel activation of the InsP3/Ca2+ and cAMP signaling pathways. We investigated whether cAMP affects 5-HT-induced Ca2+ signaling and InsP3-induced Ca2+ release from the endoplasmic reticulum (ER).
Results
Increasing intracellular cAMP level by bath application of forskolin, IBMX or cAMP in the continuous presence of threshold 5-HT concentrations converted oscillatory [Ca2+]i changes into a sustained increase. Intraluminal Ca2+ measurements in the ER of ß-escin-permeabilized glands with mag-fura-2 revealed that cAMP augmented InsP3-induced Ca2+ release in a concentration-dependent manner. This indicated that cAMP sensitized the InsP3 receptor Ca2+ channel for InsP3. By using cAMP analogs that activated either protein kinase A (PKA) or Epac and the application of PKA-inhibitors, we found that cAMP-induced augmentation of InsP3-induced Ca2+ release was mediated by PKA not by Epac. Recordings of the transepithelial potential of the glands suggested that cAMP sensitized the InsP3/Ca2+ signaling pathway for 5-HT, because IBMX potentiated Ca2+-dependent Cl- transport activated by a threshold 5-HT concentration.
Conclusion
This report shows, for the first time for an insect system, that cAMP can potentiate InsP3-induced Ca2+ release from the ER in a PKA-dependent manner, and that this crosstalk between cAMP and InsP3/Ca2+ signaling pathways enhances transepithelial electrolyte transport.
The modern foreland basin straddling the eastern margin of the Andean orogen is the prime example of a retro-arc foreland basin system adjacent to a subduction orogen. While widely studied in the central and southern Andes, the spatial and temporal evolution of the Cenozoic foreland basin system in the northern Andes has received considerably less attention. This is in part due to the complex geodynamic boundary conditions, such as the oblique subduction and accretion of the Caribbean plates to the already complex interaction between the Nazca and the South American plates. In the Colombian Andes, for example, a foreland basin system has been forming since ~80 Ma over an area previously affected by rift tectonics during the Mesozoic. This setting of Cenozoic contractile deformation superposed on continental crust pre-strained by extensional processes thus represents a natural, yet poorly studied experimental set-up, where the role of tectonic inheritance on the development of foreland basin systems can be evaluated. However, a detailed documentation of the early foreland basin evolution in this part of the Andes has thus far only been accomplished in the more internal sectors of the orogen. In this study, I integrate new structural, sedimentological and biostratigraphic data with low-temperature thermochronology from the eastern sector of the Colombian Andes, in order to provide the first comprehensive account of mountain building and related foreland basin sedimentation in this part of the orogen, and to assess as to what extent pre-existent basement anisotropies have conditioned the locus of foreland deformation in space and time. In the Medina Basin, along the eastern flank of the Eastern Cordillera, I integrated detailed structural mapping and new sedimentological data with a new chronostratigraphic framework based on detailed palynology that links an eastward-thinning early Oligocene to early Miocene syntectonic wedge containing rapid facies changes with an episode of fast tectonic subsidence starting at ~30 Ma. This record represents the first evidence of topographic loading generated by slip along the principal basement-bounding thrusts in the Eastern Cordillera to the west of the basin and thus constrains the onset of mountain building in this area. A comprehensive assessment of exhumation patterns based on zircon fission-track (ZFT), apatite fission-track (AFT) analysis and thermal modelling reveals the location of these thrust loads to have been located along the contractionally reactivated Soapaga Fault in the axial sector of the Eastern Cordillera. Farther to the east, AFT and ZFT data also document the onset of thrust-induced exhumation associated with contractional reactivation of the main range-bounding Servita Fault at ~20 Ma. Associated with this episode of orogenic growth, peak burial temperature estimates based on vitrinite reflectance data in the Cenozoic sedimentary record of the adjacent Medina Basin documents earlier incorporation of the western sector of the basin into the advancing fold and thrust belt. I combined these new thermochronological data with published AFT analyses and known chronologic indicators of brittle deformation in order to evaluate the patterns of orogenic-front migration in the Andes of central Colombia. This spatiotemporal analysis of deformation reveals an episodic pattern of eastward migration of the orogenic front at an average rate of 2.5-2.7 mm/yr during the Late Cretaceous-Cenozoic. I identified three major stages of orogen propagation. First, following initiation of mountain building in the Central Cordillera during the Late Cretaceous, the orogenic front propagate eastward at slow rates (0.5-3.1 mm/yr) until early Eocene times. Such slow orogenic advance would have resulted from limited accretionary flux related to slow and oblique (SW-NE-oriented) convergence of the Farallon and South American plates during that time. A second stage of rapid orogenic advance (4.0-18.0 mm/yr) during the middle-late Eocene, and locally of at least 100 mm/yr in the middle Eocene, resulted from initial tectonic inversion of the Eastern Cordillera. I correlate this episode of rapid orogen-front migration with an increase in the accretionary flux triggered by acceleration in convergence and a rotation of the convergence vector to a more orogen-perpendicular direction. Finally, stagnation of the Miocene deformation front along former rift-bounding reactivated faults in the eastern flank of the Eastern Cordillera led to a decrease in the rates of orogenic advance. Post-late Miocene-Pliocene thrusting along the actively deforming front of the Eastern Cordillera at this latitude suggests averaged Miocene-Holocene orogen propagation rates of 1.2-2.1 mm/yr. In addition, ZFT data suggest that exhumation along the eastern flank of the orogen occurred at moderate rates of ~0.3 mm/yr during the Miocene, prior to an acceleration of exhumation since the Pliocene, as suggested by recently published AFT data. In order to evaluate the relations between thrust loading and sedimentary facies evolution in the foreland, I analyzed gravel progradation in the foreland basin system. In particular, I compared one-dimensional Eocene to Pliocene sediment accumulation rates in the Medina basin with a three-dimensional sedimentary budget based on the interpretation of ~1800 km of industry-style seismic reflection profiles and borehole data tied to the new chronostratigraphic framework. The sedimentological data from the Medina Basin reveal rapid accumulation of fluvial and lacustrine sediments at rates of up to ~ 0.5 mm/yr during the Miocene. Provenance data based on gravel petrography and paleocurrents reveal that these Miocene fluvial systems were sourced by Upper Cretaceous and Paleocene sedimentary units exposed to the west, in the Eastern Cordillera. Peak sediment-accumulation rates in the upper Carbonera Formation and the Guayabo Group occur during episodes of gravel progradation in the proximal foredeep in the Early and Late Miocene. I interpreted this positive correlation between sediment accumulation and gravel deposition as the direct consequence of thrust activity in the Servita-Lengupá Fault. This contrasts with current models relating gravel progradation to episodes of tectonic quiescence in more distal portions of foreland basin systems and calls for a re-evaluation of tectonic history interpretations inferred from sedimentary units in other mountain belts. In summary, my results document a late Eocene-early Miocene eastward advance of the topographic loads associated with the leading edge of deformation in the northern Andes of Colombia. Crustal thickening of the Eastern Cordillera associated with initiation of thrusting along the Servitá Fault illustrates that this sector of the Andean orogen acquired ~90% of its present width already by the early Miocene (~20 Ma). My data thus demonstrate that inherited crustal anisotropies, such as the former rift-bounding faults of the Eastern Cordillera, favour a non-systematic progression of foreland basin deformation through time by preferentially concentrating accommodation of slip and thrust-loading. These new chronology of exhumation and deformation associated with specific structures in the Colombian Andes also constitutes an important advance towards the understanding of models for hydrocarbon maturation, migration and trap formation along the prolific petroleum province of the Llanos Basin in the modern foredeep area.
Die ubiquitär verbreitete Molybdänkofaktorbiosynthese ist in Escherichia coli (E. coli) bisher am umfassendsten untersucht. Bislang war jedoch nicht bekannt, welche physiologische Schwefelquelle im zweiten Schritt dieses Syntheseweges zur Bildung der charakteristischen Dithiolengruppe genutzt wird. Erste Untersuchungen deuteten auf eine der Cysteindesulfurasen E. colis hin, welche in Verbindung mit einem rhodaneseähnlichen Protein den Schwefel in Form eines Persulfids übertragen. Ähnliche Mechanismen wurden bereits in der humanen Moco-Biosynthese und der Thiaminbiosynthese identifiziert. In dieser Arbeit wurde das E. coli Protein YnjE näher charakterisiert. Es handelt sich bei YnjE um ein rhodaneseähnliches Protein aus drei Rhodanesedomänen. Durch Proteinkristallisation und anschliessender Röntgenstrukturanalyse wurde die Tertiärstruktur des YnjE-Proteins analysiert. Die hergestellten Kristalle konnten zur Gewinnung von Strukturdaten vermessen und eine Proteinkristallstruktur für YnjE berechnet werden. Desweiteren besitzt YnjE ein N-terminales Typ I Sekretionssystem abhängiges Sipnalpeptid. Durch Lokalisieungsexperimente wurde die Bedeutung des Signalpeptids für das YnjE-Protein untersucht. Dabei wurde festgestellt, dass endogenes YnjE sowohl im peri- als auch im cytoplasmatischen Raum lokalisiert ist. Auf Grund von vorhergehenden Studien, wurde eine Funktion des YnjE-Proteins innerhalb der Molybdänkofaktorbiosynthese in der Schwefelübertragung auf das Protein MoaD in E. coli vermutet und deshalb in dieser Arbeit näher untersucht. Es wurde eine Interaktion des YnjE-Proteins mit dem MoeB-Protein, welches für die Thiocarboxylierung des MoaD-Proteins essentiell ist, durch Tandem-Affinitätsreinigung und Antikörper-basierte Affinitätsreinigung nachgewiesen und ein signifikanter positiver Einfluss YnjEs auf die Bildung von Molybdopterin, einer Vorstufe des Molybdänkofaktors, bestätigt. Dabei wurde sowohl der Sulfurierungsgrad des MoaD-Proteins in YnjE und Cysteindesulfurase-knock-out Mutanten untersucht, als auch die Bildung von Molybdopterin in einem in vitro Ansatz in Abhängigkeit von steigenden YnjE-Konzentrationen analysiert. Im Ergebnis kann man daraus schließen, dass der Mechanismus der Schwefelübertragung ähnlich der Thiaminbiosynthese, über eine der drei Cysteindesulfurasen CsdA, SufS oder IscS geschieht, welche Schwefel in Form eines Persulfids auf YnjE übertragen können. Thiosulfat und Mercaptopyruvat, die Substrate für die beiden Familien der rhodaneseähnlichen Proteine, Thiosulfat-Sulfurtransferasen und Mercaptopyruvat-Sulfurtransferasen, dienen nicht als Substrate für eine Persulfurierung YnjEs. Durch eine Austauschmutante des Cysteinrestes der aktiven Schleife von YnjE konnte nicht bestätigt werden, dass dieser Aminosäurerest und damit die Bildung eines YnjE-gebundenen Persulfids für die positive Beeinflussung der MPT-Synthese essentiell ist. Vielmehr kann durch diese Arbeit von einer Vermittlung der Interaktionen zwischen MoeB, IscS und der MPT-Synthase durch YnjE ausgegangen werden wobei die Cysteindesulfurase IscS den Schwefel für die Thiocarboxylierung des MoaD-Proteins liefert.
In dieser ethnographisch-soziologischen Fallstudie wird die Geschichte der chinesischen Immigration in Bukarest nach 1990 in ihrer Besonderheit und ihren allgemeinen Strukturen nachvollzogen. Dies geschieht durch eine Doppelperspektive auf den Fall: Die Rekonstruktion der diskursiven (Re-)Präsentation des Falles als methodisch-analytische Vorstufe wurde einer anschließenden historischen Rekon-struktion der erlebten Geschichte der Migranten vorangestellt. Die anschließende Kontrastierung der Ergebnisse aus beiden Analyseschritten diente der Heraus-arbeitung vorher noch nicht sichtbarer Interdependenzen und Bezüge zwischen diesen beiden Ebenen. Mit anderen Worten: Die diskursive Ebene und die historische bzw. erlebte Ebene bilden gemeinsam und in Verschränkung miteinander die konstitutive/n Struktur/en des Falles: Erstens geht es um die Besonderheit der Post-1989-Migration von China nach Rumänien im Kontext von Transformationen. So ist für die Struktur und den Verlauf des Falles bestimmend, dass sich mehrere Wandlungsprozesse sowohl im Herkunfts- als auch im Einwanderungskontext zugleich ereigneten. Dazu gehören die Globalisierung allgemein sowie die als Transformationen bezeichneten Prozesse in China seit 1978 und in Rumänien seit 1989. Auf nationaler, lokaler Ebene sowie auf der Ebene der alltäglichen sozialen Wirklichkeit der Stadtbevölkerung und der Immigranten in Bukarest war zu beobachten, dass diese mit rapiden Veränderungen konfrontiert waren und sind. So kamen zu Beginn der 1990er Jahre einige Pioniere mit Koffern voll China-Ware in Bukarest an und verkauften ihre Ware auf den unzähligen kleinen Straßenmärkten der Stadt. Im Jahr 2007 befindet sich auf einem großen Areal am Stadtrand von Bukarest ein Baukomplex aus acht großen Shopping-Malls. Chinesische UnternehmerInnen investieren nun in Großprojekte wie etwa der Telekommunikation in Rumänien. Neu ist auch die Rekrutierung von chinesischen Textilarbeiterinnen durch rumänische Unternehmer. Diese Entwicklung hängt mit dem gegenwärtigen Mangel an rumänischen Arbeitskräften aufgrund der Auswanderungs-wellen aus Rumänien zusammen. Charakteristisch ist jedoch, dass diese ge-sellschaftlich tiefgreifenden Änderungen, die nicht nur die hier genannten öko-nomischen, sondern auch politische und soziale Konsequenzen haben, in einem starken Kontrast dazu stehen, dass ihre soziale Wirklichkeit in der Forschung, der Politik und Öffentlichkeit unbeachtet und unbekannt blieb. Als zweites Themenfeld ist das Spannungsverhältnis von lokalen und globalen Prozessen für die Geschichte der Migranten zu nennen. Dabei sind die Bedeutung der „Verortung“ einerseits und die der Transnationalität andererseits strukturbildend für die Fallgeschichte. Dabei spielte die Auseinandersetzung mit dem wissenschaftlichen Transnationalismuskonzept eine besondere Rolle: Dieses behandelte ich als theo-retischen Diskurs, der zunächst kritisch betrachtet wurde. Die Frage, ob und wie die chinesische Community in Bukarest transnational lebt und was transnationale Lebens-formen sein könnten, wurde empirisch beantwortet. Drittens habe ich unter Bezugnahme auf das Konzept des sozialen Deutungsmusters aufgezeigt, dass Informalität als soziales Konstrukt auf unterschiedlichen Ebenen fallbestimmend ist. Informalisierungsprozesse sowie damit verbundene Illegalisierung und Kriminalisierung der Migranten in Europa bilden also ein weiteres Themenfeld der Fallstruktur. Schließlich stellt die gesellschaftliche Konstruktion kultureller Deutungsmuster über chinesische Migranten ein viertes zentrales Thema der Fallstruktur dar. Die chinesischen Migranten in Bukarest leben im Fadenkreuz unterschiedlicher Zuschreibungen. Im Herkunftsland werden sie als patriotische Kapitalisten, die Moder-nität ins Land bringen, gefeiert. In Europa werden sie der internationalen Welle ‚illegaler Migration‘ zugeordnet und auf Kriminelle und/oder Opfer reduziert. In Bukarest leben sie mit und in Konkurrenz der Bewertungen bzw. Abwertungen von Minderheitengruppen, wie etwa der Roma-Minderheit. Diese Bewertungen und Zuschreibungen haben mehrere Konsequenzen. Eine davon ist, dass chinesische Immigranten in Bukarest es gelernt haben, mit diesen aktiv umzugehen. So wurde deutlich, dass sich kulturelle Deutungsmuster nicht nur habituell verankern oder als biographisches Kapital gelebt werden, sondern situationsangemessen genutzt oder sogar teilsweise inszeniert werden, mit dem Ziel, einen Weg in die Gesellschaft zu finden und in dieser als Minderheitengruppe in eine respektierte Position zu gelangen.
Chloroplasts as bioreactors : high-yield production of active bacteriolytic protein antibiotics
(2008)
Plants, more precisely their chloroplasts with their bacterial-like expression machinery inherited from their cyanobacterial ancestors, can potentially offer a cheap expression system for proteinaceous pharmaceuticals. This system would be easily scalable and provides appropriate safety due to chloroplasts maternal inheritance. In this work, it was shown that three phage lytic enzymes (Pal, Cpl-1 and PlyGBS) could be successfully expressed at very high levels and with high stability in tobacco chloroplasts. PlyGBS expression reached an amount of foreign protein accumulation (> 70% TSP) that has never been obtained before. Although the high expression levels of PlyGBS caused a pale green phenotype with retarded growth, presumably due to exhaustion of plastid protein synthesis capacity, development and seed production were not impaired under greenhouse conditions. Since Pal and Cpl-1 showed toxic effects when expressed in E. coli, a special plastid transformation vector (pTox) was constructed to allow DNA amplification in bacteria. The construction of the pTox transformation vector allowing a recombinase-mediated deletion of an E. coli transcription block in the chloroplast, leading to an increase of foreign protein accumulation to up to 40% of TSP for Pal and 20% of TSP for Cpl-1. High dose-dependent bactericidal efficiency was shown for all three plant-derived lytic enzymes using their pathogenic target bacteria S. pyogenes and S. pneumoniae. Confirmation of specificity was obtained for the endotoxic proteins Pal and Cpl-1 by application to E. coli cultures. These results establish tobacco chloroplasts as a new cost-efficient and convenient production platform for phage lytic enzymes and address the greatest obstacle for clinical application. The present study is the first report of lysin production in a non-bacterial system. The properties of chloroplast-produced lysins described in this work, their stability, high accumulation rate and biological activity make them highly attractive candidates for future antibiotics.
Questions: 1. Are there differences among species in their preference for coniferous vs. deciduous forest? 2. Are tree and shrub species better colonizers of recent forest stands than herbaceous species? 3. Do colonization patterns of plant species groups depend on tree species composition? Location: Three deciduous and one coniferous recent forest areas in Brandenburg, NE Germany. Methods: In 34 and 21 transects in coniferous and deciduous stands, respectively, we studied the occurrence and percentage cover of vascular plants in a total of 150 plots in ancient stands, 315 in recent stands and 55 at the ecotone. Habitat preference, diaspore weight, generative dispersal potential and clonal extension were used to explain mechanisms of local migration. Regression analysis was conducted to test whether migration distance was related to species’ life-history traits. Results: 25 species were significantly associated with ancient stands and ten species were significantly more frequent in recent stands. Tree and shrub species were good colonizers of recent coniferous and deciduous stands. In the coniferous stands, all herbaceous species showed a strong dispersal limitation during colonization, whereas in the deciduous stands generalist species may have survived in the grasslands which were present prior to afforestation. Conclusions: The fast colonization of recent stands by trees and shrubs can be explained by their effective dispersal via wind and animals. This, and the comparably efficient migration of herbaceous forest specialists into recent coniferous stands, implies that the conversion of coniferous into deciduous stands adjacent to ancient deciduous forests is promising even without planting of trees.
The study of biological interaction networks is a central theme in systems biology. Here, we investigate common as well as differentiating principles of molecular interaction networks associated with different levels of molecular organization. They include metabolic pathway maps, protein-protein interaction networks as well as kinase interaction networks. First, we present an integrated analysis of metabolic pathway maps and protein-protein interaction networks (PIN). It has long been established that successive enzymatic steps are often catalyzed by physically interacting proteins forming permanent or transient multi-enzyme complexes. Inspecting high-throughput PIN data, it has been shown recently that, indeed, enzymes involved in successive reactions are generally more likely to interact than other protein pairs. In this study, we expanded this line of research to include comparisons of the respective underlying network topologies as well as to investigate whether the spatial organization of enzyme interactions correlates with metabolic efficiency. Analyzing yeast data, we detected long-range correlations between shortest paths between proteins in both network types suggesting a mutual correspondence of both network architectures. We discovered that the organizing principles of physical interactions between metabolic enzymes differ from the general PIN of all proteins. While physical interactions between proteins are generally dissortative, enzyme interactions were observed to be assortative. Thus, enzymes frequently interact with other enzymes of similar rather than different degree. Enzymes carrying high flux loads are more likely to physically interact than enzymes with lower metabolic throughput. In particular, enzymes associated with catabolic pathways as well as enzymes involved in the biosynthesis of complex molecules were found to exhibit high degrees of physical clustering. Single proteins were identified that connect major components of the cellular metabolism and hence might be essential for the structural integrity of several biosynthetic systems. Besides metabolic aspects of PINs, we investigated the characteristic topological properties of protein interactions involved in signaling and regulatory functions mediated by kinase interactions. Characteristic topological differences between PINs associated with metabolism, and those describing phosphorylation networks were revealed and shown to reflect the different modes of biological operation of both network types. The construction of phosphorylation networks is based on the identification of specific kinase-target relations including the determination of the actual phosphorylation sites (P-sites). The computational prediction of P-sites as well as the identification of involved kinases still suffers from insufficient accuracies and specificities of the underlying prediction algorithms, and the experimental identification in a genome-scale manner is not (yet) doable. Computational prediction methods have focused primarily on extracting predictive features from the local, one-dimensional sequence information surrounding P-sites. However the recognition of such motifs by the respective kinases is a spatial event. Therefore, we characterized the spatial distributions of amino acid residue types around P-sites and extracted signature 3D-profiles. We then tested the added value of spatial information on the prediction performance. When compared to sequence-only based predictors, a consistent performance gain was obtained. The availability of reliable training data of experimentally determined P-sites is critical for the development of computational prediction methods. As part of this thesis, we provide an assessment of false-positive rates of phosphoproteomic data.
We formalize and analyze the notions of monotonicity and complete monotonicity for Markov Chains in continuous-time, taking values in a finite partially ordered set. Similarly to what happens in discrete-time, the two notions are not equivalent. However, we show that there are partially ordered sets for which monotonicity and complete monotonicity coincide in continuoustime but not in discrete-time.
Computational cosmology
(2008)
“Computational Cosmology” is the modeling of structure formation in the Universe by means of numerical simulations. These simulations can be considered as the only “experiment” to verify theories of the origin and evolution of the Universe. Over the last 30 years great progress has been made in the development of computer codes that model the evolution of dark matter (as well as gas physics) on cosmic scales and new research discipline has established itself. After a brief summary of cosmology we will introduce the concepts behind such simulations. We further present a novel computer code for numerical simulations of cosmic structure formation that utilizes adaptive grids to efficiently distribute the work and focus the computing power to regions of interests, respectively. In that regards we also investigate various (numerical) effects that influence the credibility of these simulations and elaborate on the procedure of how to setup their initial conditions. And as running a simulation is only the first step to modelling cosmological structure formation we additionally developed an object finder that maps the density field onto galaxies and galaxy clusters and hence provides the link to observations. Despite the generally accepted success of the cold dark matter cosmology the model still inhibits a number of deviations from observations. Moreover, none of the putative dark matter particle candidates have yet been detected. Utilizing both the novel simulation code and the halo finder we perform and analyse various simulations of cosmic structure formation investigating alternative cosmologies. These include warm (rather than cold) dark matter, features in the power spectrum of the primordial density perturbations caused by non-standard inflation theories, and even modified Newtonian dynamics. We compare these alternatives to the currently accepted standard model and highlight the limitations on both sides; while those alternatives may cure some of the woes of the standard model they also inhibit difficulties on their own. During the past decade simulation codes and computer hardware have advanced to such a stage where it became possible to resolve in detail the sub-halo populations of dark matter halos in a cosmological context. These results, coupled with the simultaneous increase in observational data have opened up a whole new window on the concordance cosmogony in the field that is now known as “Near-Field Cosmology”. We will present an in-depth study of the dynamics of subhaloes and the development of debris of tidally disrupted satellite galaxies.1 Here we postulate a new population of subhaloes that once passed close to the centre of their host and now reside in the outer regions of it. We further show that interactions between satellites inside the radius of their hosts may not be negliable. And the recovery of host properties from the distribution and properties of tidally induced debris material is not as straightforward as expected from simulations of individual satellites in (semi-)analytical host potentials.
This first volume of the DIGAREC Series holds the proceedings of the conference “The Philosophy of Computer Games”, held at the University of Potsdam from May 8-10, 2008. The contributions of the conference address three fields of computer game research that are philosophically relevant and, likewise, to which philosophical reflection is crucial. These are: ethics and politics, the action-space of games, and the magic circle. All three topics are interlinked and constitute the paradigmatic object of computer games: Whereas the first describes computer games on the outside, looking at the cultural effects of games as well as on moral practices acted out with them, the second describes computer games on the inside, i.e. how they are constituted as a medium. The latter finally discusses the way in which a border between these two realms, games and non-games, persists or is already transgressed in respect to a general performativity.
Das Cluster-Modell von Krugman und Venables (1996) erklärt im Rahmen der Neuen Ökonomischen Geographie die Bildung von Agglomerationen bei regional immobilen Arbeitskräften. Die resultierenden Gleichgewichte hängen von der Höhe der Transportkosten ab, die allerdings in beiden Sektoren als gleich hoch unterstellt werden. Der vorliegende Beitrag erweitert dieses Modell um die Möglichkeit sektoral unterschiedlicher Transportkosten. Da eine analytische Lösung nichtmöglich ist, wird eine geeignete Simulationsmethode entwickelt. Anhand von Abbildungen wird dargestellt, welche Gleichgewichte sich bei verschiedenen Werten für die beiden Transportkostensätze ergeben.
Nachdem die deutsche Ministerialverwaltung seit nunmehr zwei Jahrzehnten die Anwendung von Folgenabschätzungen weitestgehend ignoriert hat, beschloss das Bundeskabinett im April 2006 ein neues Instrument der better regulation einzuführen: das Standardkosten-Modell (SKM). Ziel der vorliegenden Studie ist es, die Wirksamkeit dieses Instruments zu untersuchen. Dazu wird ein qualitativer Bewertungsmaßstab deduktiv hergeleitet, operationalisiert und empirisch getestet. Das SKM wird demzufolge dann als wirksam erachtet, wenn es 1.) das Kräfteverhältnis zwischen Regulierungsbefürwortern und Regulierungsskeptikern zu Gunsten Letzterer verschiebt und 2.) mit der Einführung des Instruments die Weichen für einen Wandel der Regulierungskultur in der Ministerialverwaltung gestellt werden. Es zeigt sich, dass das Instrument gemäß Annahme 1 als Erfolg bewertet werden kann. Allerdings relativiert sich das Ergebnis, da Annahme 2 nicht erfüllt wird.
Hochschulen stehen zunehmend vor einem Legitimationsproblem bezüglich ihres Umgangs mit (öffentlich bereit gestellten) Ressourcen. Die Kritik bezieht sich hauptsächlich auf den Leistungsbereich der Lehre. Diese sei ineffektiv organisiert und trage durch schlechte Studienbedingungen – die ihrerseits von den Hochschulen selbst zu verantworten seien – zu langen Studienzeiten und hohen Abbruchquoten bei. Es wird konstatiert, dass mit der Lebenszeit der Studierenden verantwortungslos umgegangen und der gesellschaftliche Ausbildungsauftrag sowohl von der Hochschule im Ganzen, als auch von einzelnen Lehrenden nicht angemessen wahrgenommen werde. Um die gleichzeitig steigende Nachfrage nach akademischen Bildungsangeboten befriedigen zu können, vollziehen Hochschulen einen Wandel zu Dienstleistungsunternehmen, deren Leistungsfähigkeit sich an der Effizienz ihrer Angebote bemisst. Ein solches Leitbild ist von den Steuerungsgrundsätzen des New Public Management inspiriert. In diesem zieht sich der Staat aus der traditionell engen Verbindung zu den Hochschulen zurück und gewährt diesen lokale Autonomie, bspw. durch die Einführung globaler Haushalte zu ihrer finanziellen Selbststeuerung. Die Hochschulen werden zu Marktakteuren, die sich in der Konkurrenz um Kunden gegen ihre Wettbewerber durchsetzen, indem sie Qualität und Exzellenz unter Beweis stellen. Für die Durchführung von diesbezüglichen Leistungsvergleichen werden unterschiedliche Verfahren der Evaluation eingesetzt. In diese sind landläufig sowohl Daten der Hochschulstatistik, bspw. in Form von Absolventenquoten, als auch zunehmend Befragungsdaten, meist von Studierenden, zur Erhebung ihrer Qualitätseinschätzungen zu Lehre und Studium involviert. Insbesondere letzteren wird vielfach entgegen gehalten, dass sie nicht geeignet seien, die Qualität der Lehre adäquat abzubilden. Vielmehr seien sie durch subjektive Verzerrungen in ihrer Aussagefähigkeit eingeschränkt. Eine Beurteilung, die auf studentischen Befragungsdaten aufsetzt, müsse entsprechend zu Fehleinschätzungen und daraus folgend ungerechten Leistungssanktionen kommen. Im Sinne der Akzeptanz von Verfahren der Evaluation als Instrument hochschulinterner Qualitätssicherungs- und –entwicklungsprozesse ist daher zu untersuchen, inwieweit Beeinträchtigungen der Validität von für die Hochschulsteuerung eingesetzten Datenbasen deren Aussagekraft vermindern. Ausgehend von den entsprechenden Ergebnissen sind Entwicklungen der Verfahren möglich. Diese Frage steht im Zentrum der vorliegenden Arbeit.
Background: An increasing number of studies demonstrate that genetic differentiation and speciation in the sea occur over much smaller spatial scales than previously appreciated given the wide distribution range of many morphologically defined coral reef invertebrate species and the presumed dispersal-enhancing qualities of ocean currents. However, knowledge about the processes that lead to population divergence and speciation is often lacking despite being essential for the understanding, conservation, and management of marine biodiversity. Sponges, a highly diverse, ecologically and economically important reef-invertebrate taxon, exhibit spatial trends in the Indo-West Pacific that are not universally reflected in other marine phyla. So far, however, processes generating those unexpected patterns are not understood.
Results: We unraveled the phylogeographic structure of the widespread Indo-Pacific coral reef sponge Leucetta chagosensis across its known geographic range using two nuclear markers: the rDNA internal transcribed spacers (ITS 1&2) and a fragment of the 28S gene, as well as the second intron of the ATP synthetase beta subunit-gene (ATPSb-iII). This enabled the detection of several deeply divergent clades congruent over both loci, one containing specimens from the Indian Ocean ( Red Sea and Maldives), another one from the Philippines, and two other large and substructured NW Pacific and SW Pacific clades with an area of overlap in the Great Barrier Reef/Coral Sea. Reciprocally monophyletic populations were observed from the Philippines, Red Sea, Maldives, Japan, Samoa, and Polynesia, demonstrating long-standing isolation. Populations along the South Equatorial Current in the south-western Pacific showed isolation-by-distance effects. Overall, the results pointed towards stepping-stone dispersal with some putative long-distance exchange, consistent with expectations from low dispersal capabilities.
Conclusion: We argue that both founder and vicariance events during the late Pliocene and Pleistocene were responsible to varying degrees for generating the deep phylogeographic structure. This structure was perpetuated largely as a result of the life history of L. chagosensis, resulting in high levels of regional isolation. Reciprocally monophyletic populations constitute putative sibling ( cryptic) species, while population para- and polyphyly may indicate incipient speciation processes. The genetic diversity and biodiversity of tropical Indo-Pacific sponges appears to be substantially underestimated since the high level of genetic divergence is not necessarily manifested at the morphological level.
In der vorliegenden Arbeit wird eine Studie zum mentalen Lexikon bei Kindern mit Williams-Beuren-Syndrom (WBS) präsentiert. Das Lexikon junger WBS-Kinder entwickelt sich verzögert (Mervis & Robinson, 2000). Trotzdem gilt das Lexikon jugendlicher WBS-Probanden im Vergleich zu Probanden mit anderen Syndromen als elaboriert (Wang et al. 1995). Dies könnte auf sich spät entwickelnde Sprachfähigkeiten hindeuten. Es wird vermutet, dass ab 11 Jahren Veränderungen stattfinden, durch die das typische Profil des WBS erst entsteht (Rossen et al. 1996). Ziel der vorliegenden Arbeit ist es, sich der Aufholphase zu nähern, indem die lexikalischen Fähigkeiten vor dem kritischen Alter untersucht werden. Dazu werden zwei lexical constraints untersucht, die Markman (1989) für den ungestörten Lexikonerwerb postuliert. Whole object constraint (WOC): Das Kind nimmt an, dass sich ein unfamiliäres Wort auf ein ganzes Objekt bezieht. Mutual exclusivity constraint (MEC): Das Kind nimmt eine beidseitig exklusive Beziehung zwischen Wortform und Referenten an. Zum WBS gibt es eine einzige Studie zu den constraints (Stevens & Karmiloff-Smith 1997). Die WBS-Probanden sind zu alt (7;5 bis 31;5), um Aussagen über die Sprachfähigkeiten in der Zeit des Spurts machen zu können. Markman postuliert die constraints als Teil des universalen Wissens von Kindern. Dementsprechend ist die Hypothese, dass die constraints auch bei WBS-Kindern aktiv sind und in experimentellen Situationen zur Anwendung kommen. Zentral für die Hypothese ist die Untersuchung von Vorschulalkindern. Es werden 5 WBS-Kinder (3;2-7;0) und 98 chronologisch gematchte Kontrollkinder im WOC bzw. 97 im MEC untersucht. Es wird jeweils ein Versuch zum WOC (n=9) und zum MEC (n=12) durchgeführt. Beim WOC-Versuch wählen WBS-Kinder und Kontrollkinder am häufigsten das Zielitem. Die WBS-Kinder wählen häufig das Teilablenkerbild. Im Einzelfallvergleich sind 4 der 5 WBS-Kinder im Vergleich zu ihrer Kontrollgruppe auffällig. Im MEC-Versuch zeigen die ungestörten Kinder signifikant häufiger auf das Bild mit dem phonologischen Ablenker als die WBS-Kinder. In der Einzelfallanalyse liegen 4 von 5 WBS-Kindern bei der Auswahl des Zielitems oberhalb des Mittelwertes ihrer Kontrollgruppe. Insgesamt ergeben sich durch das Verhalten der WBS-Kinder in den Versuchen eher Hinweise auf defizitäre perzeptuelle Einflüsse auf die Anwendung der lexikalischen constraints als auf ihr Fehlen. Als Ursache für das Verhalten der WBS-Kinder wird die Detailpräferenzhypothese postuliert. Majerus et al.s (2003)Hypothese wird um die visuelle Verarbeitung erweitert. Diese findet lokal statt und kann nur bedingt Gattungsbegriffe aufbauen. Den überspezifizierten Wortformen stehen Teilrepräsentationen gegenüber. Die entstehenden semantischen Repräsentationen sind an konkreten Erfahrungen orientiert und verbleiben auf einer überspezifizierten Form. Mit der Hypothese der generellen Detailpräferenz wird zum ersten Mal eine einheitliche Wurzel für das Verhalten von WBS-Kindern im Vorschulalter in verschiedenen psychologischen Fakultäten aufgestellt. Majerus, S., Van der Linden, M., Mulder, L., Meulemans, T., & Peters, F. (2003). Verbal short-term memory reflects the sublexical organization of the phonological language network: evidence from an incidental phonotactic learning paradigm. Journal of Memory and Language, 51, 297-306. Markman, E. (1989). Categorization and naming in children. Cambridge MA: MIT Press. Mervis, C. B. & Robinson, B. F. (2000). Expressive vocabulary ability of toddlers with Williams syndrome or Down syndrome: a comparison. Developmental Neuropsychology, 17, 11-126. Rossen, M., Klima, E., Bellugi, U., Bihrle, A., & Jones, W. (1996). Interaction between language and cognition: evidence from Williams syndrome. In J. H. Beitchman, N. Cohen, M. Konstantareas, & R. Tannock (Eds.), Language, learning and behavior disorders: developmental, biological, and clinical perspectives. (367-392). New York: Cambridge University Press. Stevens, T. & Karmiloff-Smith, A. (1997). Word learning in a special population: do individuals with Williams syndrome obey lexical constraints? Journal of Child Language, 24, 737-765. Wang, P. P., Doherty, S., Rourke, S. B., & Bellugi, U. (1995). Unique profile of visuo-perceptual skills in a genetic syndrome. Brain and Cognition, 29, 54-65.
Der Beitrag zeigt in einem ersten Schritt, dass die "Absurda comica" ein theologisches Gleichnis darstellt, in dem der König die Rolle Gottes, Pickelhäring die Rolle des Teufels und die Handwerker die Rolle des Menschen übernehmen. Schlüssel für dieses Gleichnis ist Lk 9.60 und Mt 8.22, wo Christus von seinen Jüngern fordert, "die Toten ihre Toten begraben zu lassen", d.h. sich vom Reich der Welt abzuwenden. Auf die "Absurda comica" übertragen, besagt dies, dass die Handwerker die Rollenhaftigkeit und die Narrheit ihrer Existenz erkennen müssen, wenn sie vor Gott gerechtfertigt werden wollen. In einem zweiten Schritt wird gezeigt, dass die "Absurda comica" als ein solches Gleichnis in der Tradition der Fastnachtspiele steht, deren Funktion eben dieser Aufweis der menschlichen Narrheit war. Das protestantische Schuldrama trat dabei bewusst in die Tradition dieser Fastnachtspiele, wie sich gerade an der "Absurda comica" zeigen lässt. In einem dritten Schritt wird diese These in einem Vergleich mit Jacob Masens "Rusticus imperans" und Christian Weises "Tobias und die Schwalbe" bestätigt.
Wissensanalysen besitzen arbeitspsychologische Relevanz, da kompetentes Arbeitshandeln das Beherrschen eines gesicherten Basiswissens voraussetzt. In der arbeitspsychologischen Praxis werden Wissensdiagnosen beispielsweise eingesetzt in Wissensmanagementprozessen, zur Evaluation von Weiterbildungsmaßnahmen oder zur Entwicklung wissensbasierter Systeme. Der Wortassoziationsversuch als ein Verfahren zur Verbalisation fachspezifischen Wissens kann dazu einen Beitrag leisten. Dabei werden Probanden Stimuli aus einer umschriebenen Domäne des Fachwissenbereichs vorgegeben, auf welche diese stichwortartig alle Assoziationen benennen sollen, welche ihnen einfallen. Je mehr jemand assoziiert, desto größer ist – gemäß der Annahme einer netzwerkanalogen Repräsentation – dessen Wissensbesitz. Da die Verfahrensgüte des Wortassoziationsversuchs bisher ungeklärt war, sollten anhand von insgesamt 17 Feldstudien die Haupt- und Nebengütekriterien bestimmt werden. Es zeigte sich, daß der Wortassoziationsversuch in der Lage ist, explizites, deklaratives Fachwissen von Probanden zu erheben, und somit ein brauchbares wissensdiagnostisches Instrument darstellt. Die Reliabilität des Wortassoziationsversuchs konnte belegt werden, somit ist eine wichtige Voraussetzung zur Beurteilung der Validität sowie der Veränderungssensitivität gegeben. Auch die Prüfung der Validität anhand der Außenkriterien Geschäftsführerbeurteilung sowie Klausurleistung erbrachte zufriedenstellende Koeffizienten und kann daher ebenfalls als belegt angesehen werden. Ebenso konnte i.S. der diskriminanten Validierung gezeigt werden, daß mittels der Assoziationstechnik tatsächlich das Konstrukt des Fachwissens und nicht der generellen Fähigkeit zur Wortflüssigkeit erfaßt wird. Insgesamt zeigt sich der Wortassoziationsversuch damit als ein valides, reliables, m.E. Objektives, veränderungssensitves, von den Probanden akzeptiertes, ökonomisches und damit für die arbeitspsychologische Praxis nützliches Verfahren.
Im sechsten Band der Reihe Pri ha-Pardes untersucht Ulrike Heikaus die deutschsprachigen Filme, die zwischen 1933 und 1945 aus Mitteleuropa nach Palästina importiert und einer breiten Öffentlichkeit vorgeführt wurden. Im Mittelpunkt der Analyse steht die Bedeutung und Repräsentation dieser deutschsprachigen Filme in der palästinensischen Filmkultur, ihre Wahrnehmung und Rezeption, vor allem durch die deutschsprachigen Einwanderer selbst. Mehr als zweihundert deutschsprachige Filme wurden in den palästinensischen Kinotheatern während der Jahre 1930 bis 1945 in Palästina zum Teil über Jahre hinweg regelmäßig aufgeführt. Doch wie sehr waren diese Filme tatsächlich in der hebräischsprachigen Öffentlichkeit präsent? Wie wurde für sie geworben? Und wie wurden diese Filme von den deutschsprachigen Einwanderer wahrgenommen? Antworten dazu geben dabei vor allem die in Palästina in den dreißiger und vierziger Jahren erschienenen Zeitungen in deutscher Sprache, die den Neueinwanderern als Mittel zur sozialen Kommunikation und Plattform für gesellschaftliches, kulturelles und soziales Leben zur Verfügung standen. Untersucht werden ferner Materialien israelischer Archive, die über den Aspekt des deutschsprachigen Filmimports und die Vermarktung der Filme im Kontext der frühen Kinokultur im damaligen Palästina Aufschluss geben.
Die "dritte Generation"
(2008)
Diese Publikation umfasst die inhaltlichen Resultate des Projektes „Polen und Deutschland im gemeinsamen Europa“, welches von der Berlin-Brandenburgischen Auslandsgesellschaft e.V. getragen und von der Europäischen Union im Rahmen des Programms „Europa für Bürgerinnen und Bürger 2007-2013“ gefördert wurde. Das Projekt umfasste mehrere deutsch-polnische studentische Workshops unter Leitung von Prof. Dr. Bogdan Koszel (Adam-Mickiewicz-Universität Poznan) und Prof. Dr. Jochen Franzke (Universität Potsdam) in Potsdam, Frankfurt (Oder), Poznan und Mikuszewo zwischen November 2007 und Juni 2008. Parallel zum Seminarzyklus wurde ein deutsch-polnischer Essay-Wettbewerb ausgeschrieben. Der erste Teil dieser Publikation gibt einen Bericht über dieses Projekt, an dem rund 40 Studenten aus Potsdam und Poznan teilnahmen, um sich gemeinsam über die deutsch-polnischen Beziehungen und die Rolle beider Staaten in der Europäischen Union auszutauschen und die verschiedene Sichten kennenzulernen und zu diskutieren. Im zweiten Teil werden die im Wettbewerb „Gemeinsam für Europa. Neue Wege zur deutsch-polnischen Zusammenarbeit“ prämierten Essays veröffentlicht. Die Essays werden in der jeweils eingereichten Sprache und Form veröffentlicht und spiegeln die Meinung der Autoren, nicht unbedingt der Herausgeber wider. Die Auswahl der Sieger im Essaywettbwerb traf Ende April 2008 eine deutsch-polnische Jury, der neben den beiden bereits genannten Workshop-Leitern Prof. Dr. Andrzej Sakson (Instytut Zachodni Poznan), HD Dr. Raimund Krämer (Zeitschrift WeltTrends) und Kilian Kindelberger (Berlin-Brandenburgische Auslandsgesellschaft e.V.) angehörten.
In der neurologischen Rehabilitation werden in zunehmendem Maße tracheotomierte Patienten mit schweren Dysphagien behandelt. Daher sollte den hierzu bisher entwickelten Interventionsverfahren eine evidenzbasierte Grundlage gegeben werden. In der vorliegenden Arbeit wird ein multidisziplinärer Behandlungsansatz zur Trachealkanülenentwöhung und Dekanülierung vorgestellt, der auf der Grundlage der relevanten Forschungsliteratur und klinischen Beobachtungen entwickelt wurde. Des Weiteren wird erstmals eine systematische Evaluation eines multidisziplinären Trachealkanülenmangements vorgenommen und es werden explorative Daten zum Rehabilitationsverlauf dargestellt. In einem retrospektiven Vergleich wurden hierzu die Dekanülierungs- und Komplikationsraten sowie die Dauer der Trachealkanülenentwöhnung zweier Patientengruppen gegenübergestellt, die vor bzw. nach Einführung des beschriebenen multidisziplinären Trachealkanülenmanagements im REHAB Basel, Schweiz, behandelt wurden. Der rehabilitative Verlauf der multidisziplinär behandelten Gruppe wurde mittels der Messinstrumente FIM (Functional Independence Measure) und EFA (Early Functional Abilities) untersucht. Der Vergleich der Dekanülierungs- und Komplikationsraten ergab eine vergleichbare Effektivität der beiden Behandlungsansätze. Darüber hinaus zeigte sich eine signifikante Verkürzung der Kanülenentwöhnungsphase bei Anwendung des multidisziplinären Vorgehens, so dass dieses als effizenter zu beurteilen ist. Die Verlaufsanalyse der multidisziplinär behandelten Patienten ergab erst nach der Dekanülierung einen signifikanten Zuwachs der funktionellen Selbständigkeit in Alltagsaktivitäten. Bei der Mehrzahl der Patienten konnte ein vollständiger oraler Kostaufbau nach der Dekanülierung erreicht werden.
Tendinopathien der Achilles- oder Patellarsehne sind häufig in Sportarten mit zahlreichen repetitiven Belastungen im Dehnungs-Verkürzungs-Zyklus der unteren Extremität zu finden. Sowohl eine möglicherweise alterierte belastungsspezifische neuromuskuläre Antwort (NMA), als auch funktional begründete Therapiemaßnahmen mit möglichen positiven Effekten sind aktuell ungeklärt. Ziel der Arbeit war deshalb die Untersuchung der belastungsspezifischen neuromuskulären Antwort bei Athleten mit Tendinopathie der Achilles- oder Patellarsehne im Vergleich zu beschwerdefreien Athleten. Zusätzlich sollten mögliche funktionale und therapeutische Effekte eines sensomotorischen Trainings im randomisierten, kontrollierten und prospektiven Studiendesign überprüft werden. 51 Sportler mit unilateraler Tendinopathie (Achilles-/Patellarsehne n = 35/16) und 33 gesunde Sportler wurden zur Beurteilung der belastungsspezifischen neuromuskulären Antwort eingeschlossen. Zur Klärung der Effekte eines sensomotorischen Trainings im Längsschnitt konnten 26 Sportler mit Tendinopathie randomisiert zu einer Kontrollgruppe (n = 14) und einer Therapiegruppe mit sensomotorischem Training (n = 12) zugeordnet werden. Nach einer ersten biomechanischen Messung M1 (Belastungssituationen: Lauf-, Stabilisations-, Kraftbelastung) und der Erhebung der subjektiven Schmerzsymptomatik folgte eine 8-wöchige Therapiephase mit einer abschließenden Re-Test-Messung M2 identisch zu M1. Das sensomotorische Training war auf die gesamte untere Extremität ausgerichtet und wurde nach Einweisung regelmäßig kontrolliert. Die Erfassung der NMA erfolgte über die Quantifizierung der muskulären Aktivität (EMG). Zusätzlich wurde die Kinetik (z.B. Maximalkraft) belastungsspezifisch erfasst. Eine reduzierte NMA konnte für die Sportler mit Tendinopathie über veränderte EMG-Zeit- und Amplitudenmessgrößen, eine reduzierte aktive Stabilisationsfähigkeit und Maximalkraft (p < 0,05) nachgewiesen werden. In Abhängigkeit der Lokalisation (Achilles-/Patellarsehen) bzw. der Seite (Beschwerdeseite/gesunde Seite) ergaben sich keine relevanten Differenzen. Das sensomotorische Training zeigte eine Optimierung der NMA (z.B. erhöhte Maximalkraft) bei Tendinopathie der Achilles- oder Patellarsehne. Die Überprüfung der Beschwerdesymptomatik wies in allen Schmerz-Scores nach der Therapie reduzierte Werte und damit einen positiven therapeutischen Effekt gegenüber der Kontrollgruppe auf. Zusammenfassend kann eine systematisch reduzierte NMA bei Lauf-, Stabilisations- und Kraftbelastung der Sportler mit Tendinopathie nachgewiesen werden. Das sensomotorische Training ist funktional und therapeutisch als effiziente Therapiemaßnahme zu erachten.
Ein neues Ziel-Inhalts-Konzept des Rahmenlehrplans nimmt in dieser Lehrerhandreiche Gestalt an. Fachwissenschaftliche und didaktische Instruktionen sowie ein ideenreicher Arbeitsteil (Materialien und Aufgaben) helfen bei der Unterrichtsvorbereitung. Aus dem Inhalt: - ein integratives Antike-Projekt untersucht Möglichkeiten und Grenzen gesellschaftlicher Teilhabe in Athen und der römischen Republik; - Augustus und Alexander als Zentralgestalten universaler Monarchie und Reichsbildung werden in der biografischen Rekonstruktion und im historischen Kontext lebendig; - das Thema Erinnerungskultur in der Antike und heute verweist auf Grundprobleme der Geschichtskultur; - Anregungen zur Arbeit mit dem Spielfilm „Alexander“ als historische Quelle führen an rezeptionsgeschichtliche und medienspezifische Aspekte historischen Lernens heran
Im August 2007 verstarb Erich Hoppmann. Die Wettbewerbsökonomik hat ihm außerordentlich viel zu verdanken. Besondere Bekanntheit erlangte seine Kontroverse mit Erhard Kantzenbach über das adäquate Leitbild der Wettbewerbspolitik. Hoppmanns Leitbild der Wettbewerbsfreiheit entstand ab 1966 vornehmlich als Reaktion auf Kantzenbachs Leitbild der optimalen Wettbewerbsintensität. Hoppmanns Leitbild wandte sich aber auch gegen bestimmte Workability-Konzepte, ferner gegen die mit dem neoklassischen Modell der vollkommenen Konkurrenz verbundenen Gleichgewichtsvorstellungen. Wegen der für die Entwicklung der Wettbewerbspolitik in Deutschland bedeutsamen Kontroverse zwischen Hoppmann und Kantzenbach wollen wir uns im Folgenden auf deren Leitbilder konzentrieren. Zunächst werden beide Konzeptionen rekapituliert und sodann gegenübergestellt. Schließlich wird nach ihrer Bedeutung für die Theorie und Praxis der Wettbewerbspolitik gefragt.
Natürliche Standorte der Waldkiefer gibt es in Deutschland nur kleinflächig. Während Kiefernforste anstelle natürlicher Laubwälder heute oft landschaftsprägend sind, bildet die konkurrenzschwache und lichtbedürftige Kiefer ausschließlich auf extrem trockenen oder nassen, nährstoffarmen Standorten naturnahe Schlusswaldgesellschaften. Regionale Schwerpunkte liegen in subkontinentalen Regionen wie dem nordostdeutschen Tiefland und Bayern, ein „natürliches Kiefernareal" lässt sich aber kaum abgrenzen. An der Trockengrenze des Waldes finden sich auf Kalk- und Dolomitgesteinen artenreiche Karbonat-Trockenkiefernwälder mit Elementen der alpinen Rasen und Kalkmagerrasen in der Bodenvegetation. Diese Wälder besiedeln steile, südexponierte Felsen und morphodynamisch aktive Bereiche wie Rutschhänge und FlussSchotterböden im Umkreis der Alpen, kommen aber auch in den Mittelgebirgen vor. Ihr Gegenstück auf sauren Standorten sind die Sand- und Silikat-Kiefernwälder der Quarzsande und Sandstein-Verwitterungsböden, deren Bodenvegetation durch Zwergsträucher, Moose und Strauchflechten geprägt ist. Hier siedelt die Kiefer in den Tieflagen besonders auf Binnendünen und Sandern, aber auch auf Küstendünen der Ostsee, in den Mittelgebirgen z. B. auf den Sandsteinriffen der Sächsischen Schweiz. Der dritte Wuchsbereich natürlicher Kiefernwälder sind saure, nährstoffarme Moore, die ganz überwiegend von Regenwasser gespeist werden. Auch die Kiefern-Moorwälder sind in Nordostdeutschland und Bayern am häufigsten. Von diesen Standorten ausgehend, wo ihr Platz kaum von anderen Baumarten streitig gemacht wird, tritt die Waldkiefer immer wieder als Pionier auf weniger extremen Standorten auf. In der Naturlandschaft kam dies etwa nach Waldbränden oder Stürmen vor, doch der Mensch förderte die Kiefer durch Auflichtung der Wälder, Waldweide und Streunutzung stark. Auch die damit verbundene Nährstoffverarmung macht eine exakte Abgrenzung natürlicher Kiefernstandorte unmöglich. Die schlechtwüchsigen und forstwirtschaftlich nicht interessanten, ästhetisch aber sehr ansprechenden natürlichen Kiefernbestände sind heute vor allem durch Stickstoff-Immissionen gefährdet. Trotz ihrer oft kargen Erscheinung besitzen sie einen hohen Wert für die Biodiversität und den Artenschutz. Neben bodenbewohnenden Flechten und regionalen Relikt-Endemiten ist vor allem die in den letzten Jahrzehnten zunehmend gefährdete Vielfalt an Mykorrhiza-Pilzen hervorzuheben, die der Kiefer das Leben auf extrem nährstoffarmen Standorten überhaupt ermöglichen. Abschließend werden mögliche Schutz- bzw. Regenerationsmaßnahmen wie das Abplaggen flechtenreicher Kiefernstandorte vorgestellt.
Die Apartheid in Südafrika war ein Unrechtssystem. Zu den Grausamkeiten des Regimes zählten Massaker, Folter, Mord, Freiheitsberaubung, Zwangsumsiedlung, ökonomische Benachteiligung und alltägliche Diskriminierung. Was nach dem Ende eines solchen Unrechtssystems bleibt, ist die Frage nach dem Umgang mit der Vergangenheit. Die drei grundlegenden Möglichkeiten der Vergangenheitsbewältigung sind die rein justiziare Aufarbeitung, eine Generalamnestie oder ein drittes Modell, das zum Ziel hat, die Vorteile der beiden anderen Strategien zu vereinen. In Südafrika versuchte man, auch als Kompromiss aller Beteiligter, diesen dritten Weg mit der Einrichtung der Wahrheits- und Versöhnungskommission, die mittlerweile weltweit zum Sinnbild dieser Form der Vergangenheitsbewältigung geworden ist. Das Ziel der Studie war dabei zu klären: War die Wahrheits- und Versöhnungskommission in Südafrika als Strategie der Vergangenheitsbewältigung erfolgreich? Im Einzelnen widmete sich die TRC in drei Hauptausschüssen (Menschenrechtsausschuss, Amnestieausschuss und Wiedergutmachungsausschuss) den folgenden Zielen: Aufklärung der Menschenrechtsverletzungen, Klärung des Verbleibs verschwundener Personen, Klärung dessen, was während der Apartheid und der Übergangsphase zerstört wurde um die Verbrechen zu verschleiern, Wiedergutmachung für die Opfer und Amnestierung der Täter bei politisch motivierten Taten. Dieser letzte Punkt war jedoch an die völlige Offenlegung der Tat und ein öffentliches Eingeständnis gebunden. Zum einen zeigt die Analyse die großen Erfolge der Wahrheits- und Versöhnungskommission in Südafrika. Sie hat mehr und vor allem genauere Informationen über die Apartheid zusammengetragen, als je eine andere Untersuchung es geschafft hat. Mit der starken Beteiligung der Bevölkerung am Prozess der Aufklärung konnte sie einen Prozess in Gang bringen, der zur Entstehung einer neuen Menschenrechtskultur beitrug und auch einen Anstoß zur Versöhnung gab. Durch die intensive Aufarbeitung der Vergangenheit in einem gesamtgesellschaftlichen Prozess schaffte es die TRC auch, eine politische Kultur anzuregen, die unentbehrlich ist, will man nach einem Unrechtssystem eine demokratische Zukunft aufbauen. Das Verständnis oder zumindest eine Ahnung von dem was Menschenrechtsverletzungen bedeuten, wurde in dieser Zeit tief im Bewusstsein der meisten Südafrikaner verankert. Es wurde eine „operative Wahrheit“ geschaffen, die, wenn auch unter Protesten aller Parteien, letztlich anerkannt wurde und somit ein zukünftiges Leugnen der Apartheidsverbrechen unmöglich machte. Aber auch die Befreiungsbewegungen mussten brutale Verbrechen eingestehen. Zum anderen wird ebenso deutlich, dass die gestellten Anforderungen bei weitem zu hoch waren. Obwohl große Bereiche der alltäglichen Apartheid komplett unberücksichtigt blieben. Bei der Wahrheitsfindung wurde deutlich, dass die drei Ausschüsse weit von einer wirklichen Aufklärung der Untaten der Apartheid entfernt blieben. Auch in Bezug auf die Täter erreichte die Kommission nur zum Teil ihre Ziele. Verglichen mit den aufgeklärten Verbrechen, beantragte nur ein Bruchteil der Täter Amnestie. Die Logik, durch den Anreiz der Straffreiheit eine rege Beteiligung der Täter am Aufklärungsprozess zu erreichen, ging nicht auf. Bei der Wiedergutmachung zeigte sich, dass es einer der größten Konstruktionsfehler der TRC war, die Umsetzung der Entschädigungen dem Parlament und der Regierung zu überlassen. Der Wiedergutmachungsausschuss erarbeitete lediglich Vorschläge an den Präsidenten. Die wurden jedoch nie in dieser Form umgesetzt und stellten damit die TRC als Ganze bei Teilen der schwarzen und farbigen Bevölkerung in Frage. Einen direkten Zusammenhang zwischen der TRC und einer Befriedung der Bevölkerung herzustellen, wäre vermessen. Noch immer ist Südafrika ein gespaltenes Land. Ähnliches gilt bei der Legitimierung und Konsolidierung der neuen demokratischen Ordnung. Auch hier ist die Kommission ein Baustein, auf den nicht verzichtet werden konnte. Ihr diesen Erfolg, und es ist ein Erfolg im heutigen Südafrika, alleine zuzuschreiben, wäre eine extreme Überschätzung ihrer Möglichkeiten. Unterm Strich bleibt: Die TRC konnte nicht all ihre Ziele erreichen, aber sie hat sich gerade unter den Voraussetzungen des Übergangsprozesses als eine sinnvolle Form der Vergangenheitsbewältigung erwiesen, die grundlegend wichtige Ergebnisse erarbeiten konnte. Sie kann somit trotz der Berücksichtigung einer Vielzahl von Problemen als Erfolg gewertet werden.
Wie verführt ein pornographischer Text? Die Antwort auf diese Frage fällt differenziert aus, wenn der Blick auf die in der literarischen Öffentlichkeit etablierten und in den Feuilletons vielfach diskutierten Romane "Lust" von Elfriede Jelinek, "Die Möglichkeit einer Insel" von Michel Houellebecq und "Feuchtgebiete" von Charlotte Roche gerichtet wird. Die vorliegende Arbeit nähert sich der Frage durch die Untersuchung der dargestellten Sinnlichkeit in den ausgewählten Romanen und das Erfassen dieser Darstellungen über die ›Sinnlichkeitskonzepte‹ Roland Barthes' ("Die Lust am Text"), Georges Batailles ("Die Erotik") und Michel Foucaults (u.a. "Sexualität und Wahrheit"). Die unterschiedlichen Ansätze als Grundlage für die Analyse zeigen, dass die Verwendung von pornographischen Darstellungen in den Romanen legitim und funktional wichtig ist. Zugleich ermöglichen diese Darstellungen die Untersuchung der Sinnlichkeitsstrategien, die die Autoren in ihren poetologischen Konzepten verfolgen. Pornographie und Sinnlichkeit sind notwendige Bestandteile der genannten Romane. Neben dem Ansprechen der libidinösen Lust, die für diese Textanalyse sekundär ist, verführen die ausgewählten Romane über ihre besondere Sprachverwendung, die Steigerung der Sinnlichkeit durch Grenzüberschreitungen und die lustvolle Auseinandersetzung mit Sexualdiskursen.
Aus dem Inhalt: 0.1 Danksagung 0.2 Einleitung 1 Allgemeines und Grundlagen 1.1 Die Brownsche Bewegung 2 Die Dualitätsformel des Wienermaßes 2.1 Wienermaß erfüllt Dualitätsformel 2.2 Dualitätsformel charakterisiert Wienermaß 3 Die diskrete Dualitätsformel der Irrfahrt 3.1 Verallgemeinerte symmetrische Irrfahrt erfüllt diskrete Dualitätsformel 3.2 Diskrete Dualitätsformel charakterisiert verallgemeinerte symmetrische Irrfahrt 4 Donskers Theorem und die Dualitätsformeln 4.1 Straffheit der renormierten stetigen Irrfahrt 4.2 Konvergenz der Irrfahrt 5 Anhang
Recently, several faint ringlets in the Saturnian ring system were found to maintain a peculiar orientation relative to Sun. The Encke gap ringlets as well as the ringlet in the outer rift of the Cassini division were found to have distinct spatial displacements of several tens of kilometers away from Saturn towards Sun, referred to as heliotropicity (Hedman et al., 2007). This is quite exceptional, since dynamically one would expect eccentric features in the Saturnian rings to precess around Saturn over periods of months. In our study we address this exceptional behavior by investigating the dynamics of circumplanetary dust particles with sizes in the range of 1-100 µm. These small particles are perturbed by non-gravitational forces, in particular, solar radiation pres- sure, Lorentz force, and planetary oblateness, on time-scales of the order of days. The combined influences of these forces cause periodical evolutions of grains’ orbital ec- centricities as well as precession of their pericenters, which can be shown by secular perturbation theory. We show that this interaction results in a stationary eccentric ringlet, oriented with its apocenter towards the Sun, which is consistent with obser- vational findings. By applying this heliotropic dynamics to the central Encke gap ringlet, we can give a limit for the expected smallest grain size in the ringlet of about 8.7 microns, and constrain the minimal lifetime to lie in the order of months. Furthermore, our model matches fairly well the observed ringlet eccentricity in the Encke gap, which supports recent estimates on the size distribution of the ringlet material (Hedman et al., 2007). The ringlet-width however, that results from our modeling based on heliotropic dynamics, slightly overestimates the observed confined ringlet-width by a factor of 3 to 10, depending on the width-measure being used. This is indicative for mechanisms, not included in the heliotropic model, which potentially confine the ringlet to its observed width, including shepherding and scattering by embedded moonlets in the ringlet region. Based on these results, early investigations (Cuzzi et al., 1984, Spahn and Wiebicke, 1989, Spahn and Sponholz, 1989), and recent work that has been published on the F ring (Murray et al., 2008) - to which the Encke gap ringlets are found to share similar morphological structures - we model the maintenance of the central ringlet by embedded moonlets. These moonlets, believed to have sizes of hundreds of meters across, release material into space, which is eroded by micrometeoroid bombardment (Divine, 1993). We further argue that Pan - one of Saturn’s moons, which shares its orbit with the central ringlet of the Encke gap - is a rather weak source of ringlet material that efficiently confines the ringlet sources (moonlets) to move on horseshoe-like orbits. Moreover, we suppose that most of the narrow heliotropic ringlets are fed by a moonlet population, which is held together by the largest member to move on horseshoe-like orbits. Modeling the equilibrium between particle source and sinks with a primitive balance equation based on photometric observations (Porco et al., 2005), we find the minimal effective source mass of the order of 3 · 10-2MPan, which is needed to keep the central ringlet from disappearing.
The paper sheds some light on the education returns in Germany in the post war period. After describing higher education in Germany the current stand of higher education financing within the single states is presented. In six states tuition fees will be introduced in 2007/08 and discussions are going on in even some more. In the second part of the paper an empirical analysis is done using longitudinal data from the German social pension system. The analysis over the whole lifecycle renders results which proof that the higher education advantages are quite remarkable and might be a justification for more intensified financing by tuition fees. But all this has to be embedded into an encompassing strategy of tax and social policy, especially to prevent a strengthened process of social selection, which would be counterproductive for an increased and highly qualified human capital in Germany.
Die vorliegende Magisterarbeit beschäftigt sich mit der bemerkenswerten Renaissance des ›Geistes des Kapitalismus‹ als Kategorie sozialwissenschaftlicher Untersuchung. In ihrem Buch »Der neue Geist des Kapitalismus« greifen Luc Boltanski und Ève Chiapello bereits im Titel auf Max Webers religionssoziologische Schrift »Die Protestantischen Ethik und der Geist des Kapitalismus« zurück. Dieser zentralen Bezugnahme geht die vorliegende Arbeit mit Hilfe eines Konzeptionsvergleiches nach. Auf diese Weise werden die komplexen Beziehungen zu Weber, wie auch die Akzentuierung eines ›neuen‹ Geistes und damit einer spezifischen Differenz sichtbar. Über eine Rekonstruktion und kritische Betrachtung der zentralen Schlüsselbegriffe – Geist, Ideologie und Kapitalismus – und der beiden Theoriemodelle, werden wissenschaftsgeschichtliche und theoretische Hintergründe diskutiert. In der näheren Untersuchung zeigt sich, dass sich die ›Wiederbelebung‹ des kapitalistischen Geistes innerhalb von Boltanskis und Chiapellos Transformationsmodell als eine Erneuerung und Rekombination des Weberschen Instrumentariums in ein verändertes theoretisches Verständnis beschreiben lässt. Anknüpfungspunkte sind für die Autoren dabei auch seine herrschaftssoziologischen Überlegungen. Die These von einem neuen Geist ergibt sich hingegen aus einer Perspektive, die ideengeschichtlich Abstand nimmt von Webers Verständnis der Moderne als Rationalisierung.
Im Rahmen der Dissertation wurden an Wässern und freien Gasen aus Thermalquellen sowie an weniger als 5 Millionen Jahre alten basischen Vulkaniten des zentralandinen Puna-Hochplateaus (NE-Argentinien) umfangreiche element- und isotopengeochemische Untersuchungen durchgeführt und die Edelgasgehalte und -isotopensignaturen in diesen Medien bestimmt. Damit soll ein Beitrag zum besseren Verständnis der jüngeren Subduktionsgeschichte im Bereich der südlichen Zentralanden geleistet, die Wechselwirkungen zwischen ozeanischer Unter- und kontinentaler Oberplatte sichtbar gemacht und die Edelgassystematik verbessert werden. Wie die Ergebnisse der Untersuchungen an Gasen aus den Thermalquellen der Puna-Region zeigen, ist der Anteil an Mantel-Helium in den Thermalquellen dieser Region mit bis zu 67 % wesentlich höher als in der westlich gelegenen vulkanisch aktiven Westkordillere und den anderen angrenzenden Gebieten. In einigen Quellen konnten sogar Anteile an Mantel-Neon nachgewiesen werden, was aufgrund von Überlagerungen mit Neon atmosphärischen und krustalen Ursprungs weltweit bisher nur vereinzelt gelungen ist. Für kontinentale Bereiche mit großer Krustendicke ist ein solch starker Mantelgasfluss äußerst ungewöhnlich und bedeutet, dass Mantelschmelzen bis in die Kruste aufgedrungen sind und tief reichende Wegsamkeiten existieren, so dass die Mantelgase aufsteigen können, ohne stark krustal beeinflusst zu werden. Dass im Bereich der Puna rezent Mantelmaterial in die Kruste aufsteigt, zu diesem Ergebnis kommen auch aktuelle seismologische Untersuchungen. Zudem wurden junge, vorwiegend monogenetische Basalte bis basaltische Andesite geochemisch auf ihre Haupt-, Neben- und Spurenbestandteile sowie ihre Gehalte an Seltenenerdenelementen hin untersucht. Auch wurden die Isotopenverhältnisse von Sr, Nd und Pb in den Gesteinen bestimmt und petrographisch-mineralogische Analysen der darin enthaltenen Olivine und Pyroxene durchgeführt. Wie die Resultate belegen, haben die Magmen bei ihrem Aufstieg durch die Erdkruste insbesondere Material aus der Oberkruste assimiliert und sind zudem durch Fluide aus der abtauchenden Platte beeinflusst worden. Damit konnte gezeigt werden, dass einfache geochemische Methoden allein nicht ausreichen, um die Mantelquelle der Magmen ermitteln oder Aussagen über die Asthenosphärendynamik in der Region machen zu können. Im Gegensatz dazu zeigen die Messungen der Edelgasisotopenverhältnisse in den Fluideinschlüssen der Olivine und Pyroxene, dass deren Edelgaszusammensetzung nicht durch Krustenkontamination beeinflusst wurde, weil die Magmen erst nach der Olivin- bzw. Pyroxen-Kristallisation Schmelzen aus der Oberkruste assimiliert haben. Darüber hinaus konnten durch die Edelgasisotopenmessungen die bisher höchsten magmatischen He- und Ne-Isotopenverhältnisse von ganz Südamerika nachgewiesen werden. Aus der unterschiedlichen Höhe der Messwerte ist zu schließen, dass die im Osten der Puna vorkommenden älteren Laven aus einem nichtkonvektiven (lithosphärischen) Mantel stammen, während die am vulkanischen Bogen und Westrand der Puna gelegenen jüngeren Laven, ihren Ursprung in einer konvektiven (asthenosphärischen) Mantelquelle haben. Zudem konnte gezeigt werden, dass der Mantelgasfluss in der Region in den letzten 5 Millionen Jahren stark zunahm und sich die Eruption von mantelstämmigen basischen Laven in dieser Zeit kontinuierlich in westliche Richtung zum aktiven Vulkanbogen hin verlagerte. Im daraus abgeleiteten Modell beruht dieser Prozess (1) auf einer an die Kontinentalverschiebung gekoppelten W-Drift des Kontinents und (2) auf einem mit der Versteilung der Unterplatte verbundenen Vordringen des subkontinentalen asthenosphärischen Mantels nach W, nach dem Ende der Subduktion des unterseeischen aseismischen Juan Fernández-Rückens in der Region. Zudem gibt es starke Argumente dafür, dass die asthenosphärischen Magmen aus einer fluidreichen Zone in 500 – 600 km Tiefe parallel zur subduzierten Platte aufsteigen und nicht, wie bisher angenommen, durch Schmelzbildung in Bereichen unter 200 km Tiefe, allein durch Entwässerung der abtauchenden Platte erzeugt werden. Zu diesem Resultat führt vor allem die Kombination der He-Isotopenverhältnisse mit Ergebnissen seismologischer Untersuchungen.
The Sun is a star, which due to its proximity has a tremendous influence on Earth. Since its very first days mankind tried to "understand the Sun", and especially in the 20th century science has uncovered many of the Sun's secrets by using high resolution observations and describing the Sun by means of models. As an active star the Sun's activity, as expressed in its magnetic cycle, is closely related to the sunspot numbers. Flares play a special role, because they release large energies on very short time scales. They are correlated with enhanced electromagnetic emissions all over the spectrum. Furthermore, flares are sources of energetic particles. Hard X-ray observations (e.g., by NASA's RHESSI spacecraft) reveal that a large fraction of the energy released during a flare is transferred into the kinetic energy of electrons. However the mechanism that accelerates a large number of electrons to high energies (beyond 20 keV) within fractions of a second is not understood yet. The thesis at hand presents a model for the generation of energetic electrons during flares that explains the electron acceleration based on real parameters obtained by real ground and space based observations. According to this model photospheric plasma flows build up electric potentials in the active regions in the photosphere. Usually these electric potentials are associated with electric currents closed within the photosphere. However as a result of magnetic reconnection, a magnetic connection between the regions of different magnetic polarity on the photosphere can establish through the corona. Due to the significantly higher electric conductivity in the corona, the photospheric electric power supply can be closed via the corona. Subsequently a high electric current is formed, which leads to the generation of hard X-ray radiation in the dense chromosphere. The previously described idea is modelled and investigated by means of electric circuits. For this the microscopic plasma parameters, the magnetic field geometry and hard X-ray observations are used to obtain parameters for modelling macroscopic electric components, such as electric resistors, which are connected with each other. This model demonstrates that such a coronal electric current is correlated with large scale electric fields, which can accelerate the electrons quickly up to relativistic energies. The results of these calculations are encouraging. The electron fluxes predicted by the model are in agreement with the electron fluxes deduced from the measured photon fluxes. Additionally the model developed in this thesis proposes a new way to understand the observed double footpoint hard X-ray sources.
Music is a powerful and reliable means to stimulate the percept of both intense pleasantness and unpleasantness in the perceiver. However, everyone’s social experiences with music suggest that the same music piece may elicit a very different valence percept in different individuals. A comparison of music from different historical periods suggests that enculturation modulates the valence percept of intervals and harmonies, and thus possibly also of relatively basic feature extraction processes. Strikingly, it is still largely unknown how much the valence percept is dependent on physical properties of the stimulus and thus mediated by a universal perceptual mechanism, and how much it is dependent on cultural imprinting. The current thesis investigates the neurophysiology of the valence percept, and the modulating influence of culture on several distinguishable sub-processes of music processing, so-called functional modules of music processing, engaged in the mediation of the valence percept.