Refine
Year of publication
- 2013 (1715) (remove)
Document Type
- Article (1053)
- Doctoral Thesis (284)
- Monograph/Edited Volume (132)
- Postprint (63)
- Review (53)
- Conference Proceeding (42)
- Preprint (39)
- Part of Periodical (18)
- Other (13)
- Master's Thesis (10)
- Part of a Book (4)
- Bachelor Thesis (2)
- Habilitation Thesis (1)
- Moving Images (1)
Language
Is part of the Bibliography
- yes (1715) (remove)
Keywords
- climate change (7)
- Arabidopsis thaliana (6)
- Climate change (6)
- Eye movements (6)
- gamma rays: galaxies (6)
- Reading (5)
- children (5)
- galaxies: active (5)
- migration (5)
- morphology (5)
Institute
- Institut für Biochemie und Biologie (266)
- Institut für Geowissenschaften (187)
- Institut für Physik und Astronomie (185)
- Institut für Chemie (150)
- Department Psychologie (84)
- Wirtschaftswissenschaften (72)
- Institut für Romanistik (68)
- Institut für Mathematik (53)
- Department Linguistik (51)
- Institut für Germanistik (51)
A detailed description of the characteristics of antimicrobial peptides (AMPs) is highly demanded, since the resistance against traditional antibiotics is an emerging problem in medicine. They are part of the innate immune system in every organism, and they are very efficient in the protection against bacteria, viruses, fungi and even cancer cells. Their advantage is that their target is the cell membrane, in contrast to antibiotics which disturb the metabolism of the respective cell type. This allows AMPs to be more active and faster. The lack of an efficient therapy for some cancer types and the evolvement of resistance against existing antitumor agents make AMPs promising in cancer therapy besides being an alternative to traditional antibiotics. The aim of this work was the physical-chemical characterization of two fragments of LL-37, a human antimicrobial peptide from the cathelicidin family. The fragments LL-32 and LL-20 exhibited contrary behavior in biological experiments concerning their activity against bacterial cells, human cells and human cancer cells. LL-32 had even a higher activity than LL-37, while LL-20 had almost no effect. The interaction of the two fragments with model membranes was systematically studied in this work to understand their mode of action. Planar lipid films were mainly applied as model systems in combination with IR-spectroscopy and X-ray scattering methods. Circular Dichroism spectroscopy in bulk systems completed the results. In the first approach, the structure of the peptides was determined in aqueous solution and compared to the structure of the peptides at the air/water interface. In bulk, both peptides are in an unstructured conformation. Adsorbed and confined to at the air-water interface, the peptides differ drastically in their surface activity as well as in the secondary structure. While LL-32 transforms into an α-helix lying flat at the water surface, LL-20 stays partly unstructured. This is in good agreement with the high antimicrobial activity of LL-32. In the second approach, experiments with lipid monolayers as biomimetic models for the cell membrane were performed. It could be shown that the peptides fluidize condensed monolayers of negatively charged DPPG which can be related to the thinning of a bacterial cell membrane. An interaction of the peptides with zwitterionic PCs, as models for mammalian cells, was not clearly observed, even though LL-32 is haemolytic. In the third approach, the lipid monolayers were more adapted to the composition of human erythrocyte membranes by incorporating sphingomyelin (SM) into the PC monolayers. Physical-chemical properties of the lipid films were determined and the influence of the peptides on them was studied. It could be shown that the interaction of the more active LL-32 is strongly increased for heterogeneous lipid films containing both gel and fluid phases, while the interaction of LL-20 with the monolayers was unaffected. The results indicate an interaction of LL-32 with the membrane in a detergent-like way. Additionally, the modelling of the peptide interaction with cancer cells was performed by incorporating some negatively charged lipids into the PC/SM monolayers, but the increased charge had no effect on the interaction of LL-32. It was concluded, that the high anti-cancer activity of the peptide originates from the changed fluidity of cell membrane rather than from the increased surface charge. Furthermore, similarities to the physical-chemical properties of melittin, an AMP from the bee venom, were demonstrated.
Das Herbsttreffen Patholinguistik wird seit 2007 jährlich vom Verband für Patholinguistik e.V. (vpl) durchgeführt. Das 6. Herbsttreffen mit dem Schwerpunktthema "Labyrinth Grammatik: Therapie von syntaktischen Störungen bei Kindern und Erwachsenen" fand am 17.11.2012 in Potsdam statt. Im vorliegenden Tagungsband finden sich alle Beiträge der Veranstaltung: die vier Hauptvorträge zum Schwerpunkthema, die Vorträge aus Praxis und Forschung von vier Patholinguistinnen in der Reihe Spektrum Patholinguistik sowie die Abstracts der Posterpräsentation.
The nutrient exchange between plant and fungus is the key element of the arbuscular mycorrhizal (AM) symbiosis. The fungus improves the plant’s uptake of mineral nutrients, mainly phosphate, and water, while the plant provides the fungus with photosynthetically assimilated carbohydrates. Still, the knowledge about the mechanisms of the nutrient exchange between the symbiotic partners is very limited. Therefore, transport processes of both, the plant and the fungal partner, are investigated in this study. In order to enhance the understanding of the molecular basis underlying this tight interaction between the roots of Medicago truncatula and the AM fungus Rhizophagus irregularis, genes involved in transport processes of both symbiotic partners are analysed here. The AM-specific regulation and cell-specific expression of potential transporter genes of M. truncatula that were found to be specifically regulated in arbuscule-containing cells and in non-arbusculated cells of mycorrhizal roots was confirmed. A model for the carbon allocation in mycorrhizal roots is suggested, in which carbohydrates are mobilized in non-arbusculated cells and symplastically provided to the arbuscule-containing cells. New insights into the mechanisms of the carbohydrate allocation were gained by the analysis of hexose/H+ symporter MtHxt1 which is regulated in distinct cells of mycorrhizal roots. Metabolite profiling of leaves and roots of a knock-out mutant, hxt1, showed that it indeed does have an impact on the carbohydrate balance in the course of the symbiosis throughout the whole plant, and on the interaction with the fungal partner. The primary metabolite profile of M. truncatula was shown to be altered significantly in response to mycorrhizal colonization. Additionally, molecular mechanisms determining the progress of the interaction in the fungal partner of the AM symbiosis were investigated. The R. irregularis transcriptome in planta and in extraradical tissues gave new insight into genes that are differentially expressed in these two fungal tissues. Over 3200 fungal transcripts with a significantly altered expression level in laser capture microdissection-collected arbuscules compared to extraradical tissues were identified. Among them, six previously unknown specifically regulated potential transporter genes were found. These are likely to play a role in the nutrient exchange between plant and fungus. While the substrates of three potential MFS transporters are as yet unknown, two potential sugar transporters are might play a role in the carbohydrate flow towards the fungal partner. In summary, this study provides new insights into transport processes between plant and fungus in the course of the AM symbiosis, analysing M. truncatula on the transcript and metabolite level, and provides a dataset of the R. irregularis transcriptome in planta, providing a high amount of new information for future works.
Hydrothermal carbonisation
(2013)
The world’s appetite for energy is producing growing quantities of CO2, a pollutant that contributes to the warming of the planet and which currently cannot be removed or stored in any significant way. Other natural reserves are also being devoured at alarming rates and current assessments suggest that we will need to identify alternative sources in the near future. With the aid of materials chemistry it should be possible to create a world in which energy use needs not be limited and where usable energy can be produced and stored wherever it is needed, where we can minimize and remediate emissions as new consumer products are created, whilst healing the planet and preventing further disruptive and harmful depletion of valuable mineral assets. In achieving these aims, the creation of new and very importantly greener industries and new sustainable pathways are crucial. In all of the aforementioned applications, new materials based on carbon, ideally produced via inexpensive, low energy consumption methods, using renewable resources as precursors, with flexible morphologies, pore structures and functionalities, are increasingly viewed as ideal candidates to fulfill these goals. The resulting materials should be a feasible solution for the efficient storage of energy and gases. At the end of life, such materials ideally must act to improve soil quality and to act as potential CO2 storage sinks. This is exactly the subject of this habilitation thesis: an alternative technology to produce carbon materials from biomass in water using low carbonisation temperatures and self-generated pressures. This technology is called hydrothermal carbonisation. It has been developed during the past five years by a group of young and talented researchers working under the supervision of Dr. Titirici at the Max-Planck Institute of Colloids and Interfaces and it is now a well-recognised methodology to produce carbon materials with important application in our daily lives. These applications include electrodes for portable electronic devices, filters for water purification, catalysts for the production of important chemicals as well as drug delivery systems and sensors.
Verfassungsgerichtsbarkeit in der Russischen Föderation und in der Bundesrepublik Deutschland
(2013)
Der Tagungsband enthält die Referate und Diskussionsbeiträge des in Moskau an der Staatlichen Juristischen Kutafin-Universität am 9. und 10. Oktober 2012 durchgeführten Rundtischgespräches zur Verfassungsgerichtsbarkeit. Behandelt werden ausgewählte rechtshistorische und -politische Fragen sowie aktuelle rechtliche Probleme der Verfassungsgerichtsbarkeit in der Russischen Föderation und der Bundesrepublik Deutschland sowohl aus der Sicht der Rechtspraxis als auch der Wissenschaft: insbesondere die Entwicklung der Verfassungsgerichtsbarkeit in Geschichte und Gegenwart, Status, Rechtsnatur und Aufgaben des Verfassungsgerichts in den Subjekten der Föderation und in den Ländern sowie Verfassungsgericht und Gesetzgebung. Zudem werden Spezialfragen der Verfassungsgerichtsbarkeit erörtert, z.B. die Institution des Bevollmächtigten Vertreters des Präsidenten im Verfassungsgericht in Russland, der Eilrechtsschutz durch das BVerfG und der Rechtsschutz bei überlangen Verfahren vor dem BVerfG in Deutschland.
Soft Power ist zu einem einflussreichen Konzept avanciert – in der Politikwissenschaft, aber auch in der Politik selbst. Dabei bleibt es sowohl theoretisch als auch praktisch umstritten. In der Praxis wird das Konzept instrumentalisiert, um außenpolitisches Handeln von militärischem und wirtschaftlichem Druck positiv abzugrenzen. Unklar ist, wie Soft Power in militärischen Kontexten, in denen Hard Power im Vordergrund steht, funktionieren kann. Anhand des Afghanistan-Einsatzes der Bundeswehr wird dieses Verhältnis analysiert und eine eigene Definition von Soft Power entwickelt.
Antarctic glacier forfields are extreme environments and pioneer sites for ecological succession. The Antarctic continent shows microbial community development as a natural laboratory because of its special environment, geographic isolation and little anthropogenic influence. Increasing temperatures due to global warming lead to enhanced deglaciation processes in cold-affected habitats and new terrain is becoming exposed to soil formation and accessible for microbial colonisation. This study aims to understand the structure and development of glacier forefield bacterial communities, especially how soil parameters impact the microorganisms and how those are adapted to the extreme conditions of the habitat. To this effect, a combination of cultivation experiments, molecular, geophysical and geochemical analysis was applied to examine two glacier forfields of the Larsemann Hills, East Antarctica. Culture-independent molecular tools such as terminal restriction length polymorphism (T-RFLP), clone libraries and quantitative real-time PCR (qPCR) were used to determine bacterial diversity and distribution. Cultivation of yet unknown species was carried out to get insights in the physiology and adaptation of the microorganisms. Adaptation strategies of the microorganisms were studied by determining changes of the cell membrane phospholipid fatty acid (PLFA) inventory of an isolated bacterium in response to temperature and pH fluctuations and by measuring enzyme activity at low temperature in environmental soil samples. The two studied glacier forefields are extreme habitats characterised by low temperatures, low water availability and small oligotrophic nutrient pools and represent sites of different bacterial succession in relation to soil parameters. The investigated sites showed microbial succession at an early step of soil formation near the ice tongue in comparison to closely located but rather older and more developed soil from the forefield. At the early step the succession is influenced by a deglaciation-dependent areal shift of soil parameters followed by a variable and prevalently depth-related distribution of the soil parameters that is driven by the extreme Antarctic conditions. The dominant taxa in the glacier forefields are Actinobacteria, Acidobacteria, Proteobacteria, Bacteroidetes, Cyanobacteria and Chloroflexi. The connection of soil characteristics with bacterial community structure showed that soil parameter and soil formation along the glacier forefield influence the distribution of certain phyla. In the early step of succession the relative undifferentiated bacterial diversity reflects the undifferentiated soil development and has a high potential to shift according to past and present environmental conditions. With progressing development environmental constraints such as water or carbon limitation have a greater influence. Adapting the culturing conditions to the cold and oligotrophic environment, the number of culturable heterotrophic bacteria reached up to 108 colony forming units per gram soil and 148 isolates were obtained. Two new psychrotolerant bacteria, Herbaspirillum psychrotolerans PB1T and Chryseobacterium frigidisoli PB4T, were characterised in detail and described as novel species in the family of Oxalobacteraceae and Flavobacteriaceae, respectively. The isolates are able to grow at low temperatures tolerating temperature fluctuations and they are not specialised to a certain substrate, therefore they are well-adapted to the cold and oligotrophic environment. The adaptation strategies of the microorganisms were analysed in environmental samples and cultures focussing on extracellular enzyme activity at low temperature and PLFA analyses. Extracellular phosphatases (pH 11 and pH 6.5), β-glucosidase, invertase and urease activity were detected in the glacier forefield soils at low temperature (14°C) catalysing the conversion of various compounds providing necessary substrates and may further play a role in the soil formation and total carbon turnover of the habitat. The PLFA analysis of the newly isolated species C. frigidisoli showed that the cold-adapted strain develops different strategies to maintain the cell membrane function under changing environmental conditions by altering the PLFA inventory at different temperatures and pH values. A newly discovered fatty acid, which was not found in any other microorganism so far, significantly increased at decreasing temperature and low pH and thus plays an important role in the adaption of C. frigidisoli. This work gives insights into the diversity, distribution and adaptation mechanisms of microbial communities in oligotrophic cold-affected soils and shows that Antarctic glacier forefields are suitable model systems to study bacterial colonisation in connection to soil formation.
Die vorliegende Studie befasst sich mit den betriebswirtschaftlichen Besonderheiten kleiner und mittlerer Unternehmen (KMU) im Osten Deutschlands, welche sich grundsätzlich auch in der Finanzierung zeigen. Die Forschungen belegen, dass auch die unzureichende Innovationsdynamik Ostdeutschlands keineswegs nur ein konjunkturelles oder gar mentales, sondern ein strukturelles Phänomen ist. Die Analyse unterstreicht einen besonderen Handlungsbedarf in den östlichen Bundesländern, da hier einerseits kleine Unternehmen in großer Zahl vorhanden sind, auch der Mittelstand insgesamt weitgehend etabliert ist, aber im Ost-West-Vergleich weiterhin etablierte Großunternehmen als Partner seltener anzutreffen und die einen positiven Ausstrahlungseffekt auf mittelständische Zulieferbetriebe bewirken. Auch sind in Deutschland-Ost die Finanzierungsverhältnisse besondere, d.h. der Anteil der Fremdfinanzierung ist differenziert ausgeprägt. Entsprechend sollte die „Hausbank“ wegen ihrem herausragenden Stellenwert für den Mittelstand auf den Prüfstand. Die hier nochmals gezeigten Finanzierungsschwächen gelten zwar für KMU grundsätzlich, aber besonders für die kleinere KMU im Osten, wo zwar die Eigenkapitalquote gewachsen ist, aber beispielsweise die Fristenstrukturen der Fremdfinanzierung teilweise mit der Kapitalbindung im Anlagevermögen nicht kongruent sind. Die private Finanzierung von KMU muss wegen der Defizite strukturellen Mängel noch gezielter durch staatliche Förderinstrumente unterstützt werden.
On July 20/21 in 2012, an international workshop was held on the subject of the global impact of the Euro-Financial-Crisis at the University of Potsdam. Prof. Dr. Detlev Hummel, faculty Finance and Banking, was the host of the event. Academic colleagues from Beijing, Moscow and Connecticut (USA) as well as domestic capital market and banking experts presented their analyses. Different aspects of national and international finance markets were examined, with a focus on the European region, China and Russia. Mistakes and failures of the banking regulations were identified as one, but note the sole cause of the economic problems. A lack of budget discipline of some politicians and the loss of business competitiveness of certain European nations were mentioned, too. Some members of the European Union did not succeed in mastering the challenges of the global economy. There have been structural issues in some states that impede their competitiveness in the global market, for example with China. The participants pointed out a number of other reasons for the crisis, like dubious distribution types as well as a lack of transparency of certain financial products. Furthermore, remuneration and incentive schemas of investment banks and especially the reckless risk management policy of large banks were identified as other factors for the crisis. The participants of the international workshop in Potsdam agree that the birth of the Euro-currency was a political event and will remain a challenge. The reform of the banking supervision and further steps towards an economic and fiscal union are new research tasks.
3D from 2D touch
(2013)
While interaction with computers used to be dominated by mice and keyboards, new types of sensors now allow users to interact through touch, speech, or using their whole body in 3D space. These new interaction modalities are often referred to as "natural user interfaces" or "NUIs." While 2D NUIs have experienced major success on billions of mobile touch devices sold, 3D NUI systems have so far been unable to deliver a mobile form factor, mainly due to their use of cameras. The fact that cameras require a certain distance from the capture volume has prevented 3D NUI systems from reaching the flat form factor mobile users expect. In this dissertation, we address this issue by sensing 3D input using flat 2D sensors. The systems we present observe the input from 3D objects as 2D imprints upon physical contact. By sampling these imprints at very high resolutions, we obtain the objects' textures. In some cases, a texture uniquely identifies a biometric feature, such as the user's fingerprint. In other cases, an imprint stems from the user's clothing, such as when walking on multitouch floors. By analyzing from which part of the 3D object the 2D imprint results, we reconstruct the object's pose in 3D space. While our main contribution is a general approach to sensing 3D input on 2D sensors upon physical contact, we also demonstrate three applications of our approach. (1) We present high-accuracy touch devices that allow users to reliably touch targets that are a third of the size of those on current touch devices. We show that different users and 3D finger poses systematically affect touch sensing, which current devices perceive as random input noise. We introduce a model for touch that compensates for this systematic effect by deriving the 3D finger pose and the user's identity from each touch imprint. We then investigate this systematic effect in detail and explore how users conceptually touch targets. Our findings indicate that users aim by aligning visual features of their fingers with the target. We present a visual model for touch input that eliminates virtually all systematic effects on touch accuracy. (2) From each touch, we identify users biometrically by analyzing their fingerprints. Our prototype Fiberio integrates fingerprint scanning and a display into the same flat surface, solving a long-standing problem in human-computer interaction: secure authentication on touchscreens. Sensing 3D input and authenticating users upon touch allows Fiberio to implement a variety of applications that traditionally require the bulky setups of current 3D NUI systems. (3) To demonstrate the versatility of 3D reconstruction on larger touch surfaces, we present a high-resolution pressure-sensitive floor that resolves the texture of objects upon touch. Using the same principles as before, our system GravitySpace analyzes all imprints and identifies users based on their shoe soles, detects furniture, and enables accurate touch input using feet. By classifying all imprints, GravitySpace detects the users' body parts that are in contact with the floor and then reconstructs their 3D body poses using inverse kinematics. GravitySpace thus enables a range of applications for future 3D NUI systems based on a flat sensor, such as smart rooms in future homes. We conclude this dissertation by projecting into the future of mobile devices. Focusing on the mobility aspect of our work, we explore how NUI devices may one day augment users directly in the form of implanted devices.
In sedimentary basins, rock thermal conductivity can vary both laterally and vertically, thus altering the basin’s thermal structure locally and regionally. Knowledge of the thermal conductivity of geological formations and its spatial variations is essential, not only for quantifying basin evolution and hydrocarbon maturation processes, but also for understanding geothermal conditions in a geological setting. In conjunction with the temperature gradient, thermal conductivity represents the basic input parameter for the determination of the heat-flow density; which, in turn, is applied as a major input parameter in thermal modeling at different scales. Drill-core samples, which are necessary to determine thermal properties by laboratory measurements, are rarely available and often limited to previously explored reservoir formations. Thus, thermal conductivities of Mesozoic rocks in the North German Basin (NGB) are largely unknown. In contrast, geophysical borehole measurements are often available for the entire drilled sequence. Therefore, prediction equations to determine thermal conductivity based on well-log data are desirable. In this study rock thermal conductivity was investigated on different scales by (1) providing thermal-conductivity measurements on Mesozoic rocks, (2) evaluating and improving commonly applied mixing models which were used to estimate matrix and pore-filled rock thermal conductivities, and (3) developing new well-log based equations to predict thermal conductivity in boreholes without core control. Laboratory measurements are performed on sedimentary rock of major geothermal reservoirs in the Northeast German Basin (NEGB) (Aalenian, Rhaethian-Liassic, Stuttgart Fm., and Middle Buntsandstein). Samples are obtained from eight deep geothermal wells that approach depths of up to 2,500 m. Bulk thermal conductivities of Mesozoic sandstones range between 2.1 and 3.9 W/(m∙K), while matrix thermal conductivity ranges between 3.4 and 7.4 W/(m∙K). Local heat flow for the Stralsund location averages 76 mW/m², which is in good agreement to values reported previously for the NEGB. For the first time, in-situ bulk thermal conductivity is indirectly calculated for entire borehole profiles in the NEGB using the determined surface heat flow and measured temperature data. Average bulk thermal conductivity, derived for geological formations within the Mesozoic section, ranges between 1.5 and 3.1 W/(m∙K). The measurement of both dry- and water-saturated thermal conductivities allow further evaluation of different two-component mixing models which are often applied in geothermal calculations (e.g., arithmetic mean, geometric mean, harmonic mean, Hashin-Shtrikman mean, and effective-medium theory mean). It is found that the geometric-mean model shows the best correlation between calculated and measured bulk thermal conductivity. However, by applying new model-dependent correction, equations the quality of fit could be significantly improved and the error diffusion of each model reduced. The ‘corrected’ geometric mean provides the most satisfying results and constitutes a universally applicable model for sedimentary rocks. Furthermore, lithotype-specific and model-independent conversion equations are developed permitting a calculation of water-saturated thermal conductivity from dry-measured thermal conductivity and porosity within an error range of 5 to 10%. The limited availability of core samples and the expensive core-based laboratory measurements make it worthwhile to use petrophysical well logs to determine thermal conductivity for sedimentary rocks. The approach followed in this study is based on the detailed analyses of the relationships between thermal conductivity of rock-forming minerals, which are most abundant in sedimentary rocks, and the properties measured by standard logging tools. By using multivariate statistics separately for clastic, carbonate and evaporite rocks, the findings from these analyses allow the development of prediction equations from large artificial data sets that predict matrix thermal conductivity within an error of 4 to 11%. These equations are validated successfully on a comprehensive subsurface data set from the NGB. In comparison to the application of earlier published approaches formation-dependent developed for certain areas, the new developed equations show a significant error reduction of up to 50%. These results are used to infer rock thermal conductivity for entire borehole profiles. By inversion of corrected in-situ thermal-conductivity profiles, temperature profiles are calculated and compared to measured high-precision temperature logs. The resulting uncertainty in temperature prediction averages < 5%, which reveals the excellent temperature prediction capabilities using the presented approach. In conclusion, data and methods are provided to achieve a much more detailed parameterization of thermal models.
Der Europäische Automobilsektor : Besteuerung, Marktliberalisierung und Beitrag zur CO₂-Reduktion
(2013)
Der Automobilsektor ist derzeit einer der wichtigsten Industriezweige in Europa. Ca. 2,2 Millionen Mitarbeiter sind direkt, weitere 9,8 Millionen indirekt darin beschäftigt (sechs Prozent aller Beschäftigten in Europa) und erwirtschaften mit einem Umsatz von ca. € 780 Milliarden im Jahr einen bedeutenden Teil des europäischen Bruttoinlandprodukts (BIP). Auch aus Sicht der Konsumenten ist das Auto für 80 % der Europäischen Haushalte, die ein Auto besitzen, aus dem täglichen Leben nicht mehr weg zu denken. Die europäischen Staaten beziehen ca. € 380 Milliarden ihrer Steuereinnahmen aus der Automobilindustrie. Damit haben sowohl Staaten, Konsumenten als auch die Automobilindustrie ein gewichtiges Interesse am Florieren der Branche. Die Schattenseite der Automobilindustrie sind die CO2-Emissionen, die mit 20 % (der Anteil lag 1970 bei 12 %) aller CO2-Emissionen in Europa einen wesentlichen Teil zum Klimawandel beitragen, Tendenz steigend. So haben im Lauf der vergangenen Jahre mehr und mehr Staaten ihre Besteuerung der Pkw explizit oder implizit nach Umweltstandards ausgerichtet. Damit soll das Autofahren verteuert oder eingeschränkt und / oder die Nutzung von schadstoffarmen Pkw gefördert werden. Neben den Klimaschutz verfolgt die Europäische Union (EU) das Ziel, einen einheitlichen europäischen Binnenmarkt zu schaffen. Durch den Mangel an verbindlichen EU-Richtlinien im Bezug auf Abgaben, haben die Gesetze, Steuern und Abgaben auf einzelstaatlicher und regionaler Ebene ein kaum mehr zu überschauendes Maß angenommen, da Im Rahmen des Subsidiaritätsprinzips die Mitgliedsländer weiterhin ihr Steuersystem überwiegend autonom gestalten, sofern dies im Einklang mit bestimmten europaweiten Vorgaben steht. Dies führt zu einem sehr heterogenen Steuersystem, das gerade im Bereich des Verkehrs bedeutende Markteffekte (z. B. höhere Zulassungszahlen für Diesel betriebene Pkw oder kürzere Haltedauern) nach sich zieht. Europaweit einheitlich sind lediglich Regelungen zu Wettbewerbsbeschränkungen. Es lassen sich nach wie vor viele Beispiele für Marktverzerrungen und die Heterogenität der Steuersysteme in Europa finden: Marktverzerrungen und Wettbewerbsbeschränkungen zeigen sich bei Fahrzeugpreisen, die in Europa stark variieren. Beispielsweise kosten in Dänemark Pkw bis zu 37 % weniger als in Deutschland. Diese Arbeit untersucht und vergleicht die Abgaben auf den Erwerb, den Besitz und die Nutzung von Pkw in den EU-Ländern sowie Norwegen und der Schweiz sowohl systematisch als auch quantitativ. Zur quantitativen Analyse wurde eine Datenbank mit den zur Steuerberechnung notwendigen Informationen erstellt. Darunter sind beispielswiese: Steuersätze und –tarife, Fahrzeugdaten, Kraftstoffpreise, Instandhaltungskosten, Versicherungsbeitrage, Wechselkurse und der durchschnittliche Wertverlust der Fahrzeuge. Darauf und auf bestimmten Annahmen basierend wurden die absoluten Abgaben für repräsentative Fahrzeuge in den verschiedenen Ländern berechnet. Besonderes Augenmerk gilt der CO2-orientierten Besteuerung, die in 17 Ländern (zumindest teilweise) eingeführt wurde. Diese Arbeit betrachtet auch andere, d. h. nicht fiskalische Maßnahmen der Europäischen Union zur CO2-Reduzierung, vergleicht diese mit alternativen Instrumenten, und analysiert die Wirkung unterschiedlicher Besteuerung auf den Pkw-Binnenmarkt, z. B. den Einfluss von Abgaben auf die europäischen Automobilpreise und damit auf Arbitrageeffekte. Es zeigt sich, dass die Besteuerung in Europa sowohl in der Abgabenhöhe als auch konzeptionell in der Vielzahl der Bemessungsgrundlagen und Steuertarife sehr heterogen ist und maßgeblich zu den sehr unterschiedlichen Gesamtkosten der Pkw-Nutzung beiträgt. Die relative Abgabenlast ist in einkommensstarken Ländern Westeuropas nicht hoch genug, um den Kraftstoffverbrauch spürbar zu reduzieren. Aus dem gleichen Grund ist von der CO2-orientierten Novellierung der deutschen Kfz-Steuer kein ausreichender Kaufanreiz zugunsten effizienterer Fahrzeuge zu erwarten. Die in der Vergangenheit von der Europäischen Union eingeführten Instrumente zur Reduzierung von CO2-Emissionen aus dem Straßenverkehr führten nicht zu den erwünschten Emissionsverringerungen. Die jüngste Maßnahme der Europäischen Union, den Automobilherstellern Emissionsgrenzen vorzuschreiben, ist weder effektiv noch effizient. Im letzten Jahrzehnt haben sich die Automobilpreise in Europa zwar etwas angeglichen. Dies liegt weniger an einer Angleichung in der Besteuerung als an der schrittweisen Liberalisierung des europäischen Automobilmarktes und den Novellierungen der Gruppenfreistellungsverordnung.
Crowded field spectroscopy and the search for intermediate-mass black holes in globular clusters
(2013)
Globular clusters are dense and massive star clusters that are an integral part of any major galaxy. Careful studies of their stars, a single cluster may contain several millions of them, have revealed that the ages of many globular clusters are comparable to the age of the Universe. These remarkable ages make them valuable probes for the exploration of structure formation in the early universe or the assembly of our own galaxy, the Milky Way. A topic of current research relates to the question whether globular clusters harbour massive black holes in their centres. These black holes would bridge the gap from stellar mass black holes, that represent the final stage in the evolution of massive stars, to supermassive ones that reside in the centres of galaxies. For this reason, they are referred to as intermediate-mass black holes. The most reliable method to detect and to weigh a black hole is to study the motion of stars inside its sphere of influence. The measurement of Doppler shifts via spectroscopy allows one to carry out such dynamical studies. However, spectroscopic observations in dense stellar fields such as Galactic globular clusters are challenging. As a consequence of diffraction processes in the atmosphere and the finite resolution of a telescope, observed stars have a finite width characterized by the point spread function (PSF), hence they appear blended in crowded stellar fields. Classical spectroscopy does not preserve any spatial information, therefore it is impossible to separate the spectra of blended stars and to measure their velocities. Yet methods have been developed to perform imaging spectroscopy. One of those methods is integral field spectroscopy. In the course of this work, the first systematic study on the potential of integral field spectroscopy in the analysis of dense stellar fields is carried out. To this aim, a method is developed to reconstruct the PSF from the observed data and to use this information to extract the stellar spectra. Based on dedicated simulations, predictions are made on the number of stellar spectra that can be extracted from a given data set and the quality of those spectra. Furthermore, the influence of uncertainties in the recovered PSF on the extracted spectra are quantified. The results clearly show that compared to traditional approaches, this method makes a significantly larger number of stars accessible to a spectroscopic analysis. This systematic study goes hand in hand with the development of a software package to automatize the individual steps of the data analysis. It is applied to data of three Galactic globular clusters, M3, M13, and M92. The data have been observed with the PMAS integral field spectrograph at the Calar Alto observatory with the aim to constrain the presence of intermediate-mass black holes in the centres of the clusters. The application of the new analysis method yields samples of about 80 stars per cluster. These are by far the largest spectroscopic samples that have so far been obtained in the centre of any of the three clusters. In the course of the further analysis, Jeans models are calculated for each cluster that predict the velocity dispersion based on an assumed mass distribution inside the cluster. The comparison to the observed velocities of the stars shows that in none of the three clusters, a massive black hole is required to explain the observed kinematics. Instead, the observations rule out any black hole in M13 with a mass higher than 13000 solar masses at the 99.7% level. For the other two clusters, this limit is at significantly lower masses, namely 2500 solar masses in M3 and 2000 solar masses in M92. In M92, it is possible to lower this limit even further by a combined analysis of the extracted stars and the unresolved stellar component. This component consists of the numerous stars in the cluster that appear unresolved in the integral field data. The final limit of 1300 solar masses is the lowest limit obtained so far for a massive globular cluster.
The new interactive online educational platform openHPI, (https://openHPI.de) from Hasso Plattner Institute (HPI), offers freely accessible courses at no charge for all who are interested in subjects in the field of information technology and computer science. Since 2011, “Massive Open Online Courses,” called MOOCs for short, have been offered, first at Stanford University and then later at other U.S. elite universities. Following suit, openHPI provides instructional videos on the Internet and further reading material, combined with learning-supportive self-tests, homework and a social discussion forum. Education is further stimulated by the support of a virtual learning community. In contrast to “traditional” lecture platforms, such as the tele-TASK portal (http://www.tele-task.de) where multimedia recorded lectures are available on demand, openHPI offers didactic online courses. The courses have a fixed start date and offer a balanced schedule of six consecutive weeks presented in multimedia and, whenever possible, interactive learning material. Each week, one chapter of the course subject is treated. In addition, a series of learning videos, texts, self-tests and homework exercises are provided to course participants at the beginning of the week. The course offering is combined with a social discussion platform where participants have the opportunity to enter into an exchange with course instructors and fellow participants. Here, for example, they can get answers to questions and discuss the topics in depth. The participants naturally decide themselves about the type and range of their learning activities. They can make personal contributions to the course, for example, in blog posts or tweets, which they can refer to in the forum. In turn, other participants have the chance to comment on, discuss or expand on what has been said. In this way, the learners become the teachers and the subject matter offered to a virtual community is linked to a social learning network.
Nach sieben Jahrzehnten Sowjetunion sind die Russen in vielen ihrer Essgewohnheiten wieder zu den Traditionen der vorrevolutionären Zeit zurückgekehrt. Die Esskultur, die private wie die der Restaurants, hat wieder einen hohen Stellenwert, Kochbücher und Ratgeber in Fernsehen und Internet haben Konjunktur. Die wissenschaftliche Erforschung dieser Sparte der Kultur hält mit dieser Entwicklung nicht Schritt. Im Frühjahr 2010 fand an der Universität Potsdam die erste internationale und interdisziplinäre Tagung zum Thema „Russische Küche und kulturelle Identität“ statt. Der vorliegende Sammelband enthält viele der dort vorgestellten Beiträge in Aufsatzform. Es sind kultur- und literaturwissenschaftliche Untersuchungen zu Essen und Trinken in Russland. Untersucht werden nicht nur die Bedeutung einzelner Speisen und Zubereitungsarten und die Mahlzeit als soziales Geschehen, sondern auch der Verzicht auf Nahrung, sei es freiwillig als Fasten, sei es erzwungen als Hunger. Eine andere Gruppe von Beiträgen geht der Rolle des Essens als literarischem Motiv nach, eine weitere bildlichen Darstellungen. Auch das Trinken wird bedacht. In der Kultur durchweg klar kodiert, eignen sich Essen und Trinken ganz besonders als literarische Zeichen, die in den Werken unterschiedlichste Funktionen übernehmen können. Als Ganzes eröffnen die Beiträge erste Durchblicke in ein großes und bislang oft vernachlässigtes Forschungsgebiet.
Am Beginn dieser Magisterarbeit steht das Scheunenviertelpogrom, das am 05. und 06. November 1923 im Berliner Scheunenviertel stattfand. Ausgehend von einer Charakterisierung der verschiedenen Gruppen, die während des Scheunenviertelpogroms am 05. und 06. November 1923 entweder als Täter oder Opfer, als Ordnungshüter oder Beschützer der Opfer in die Ereignisse involviert waren, soll diese Arbeit dazu dienen, die Rolle des Reichsbundes jüdischer Frontsoldaten dabei näher zu beleuchten. Der Reichsbund jüdischer Frontsoldaten war 1919 zum Zweck der Abwehr des Antisemitismus gegründet worden. Eine Intention für die Gründung war der „antisemitische Stachel im Fleisch“ der jüdischen Veteranen, die bereits während des Ersten Weltkrieges als „Drückeberger“ verunglimpft worden waren. Während der gesamten Zeit seines Bestehens war der Reichsbund bemüht, Beweise dafür zu erbringen, dass diese Anschuldigungen ungerechtfertigt waren. In seinem Selbstverständnis sah sich der RjF als Abwehrverein, der mit verbalen und publizistischen Mitteln versuchte, gegen eine Bedrohung vorzugehen. Da diese Mittel in einigen Fällen, wie dem Scheunenviertelpogrom nicht ausreichten, wurde auch ein gewaltsames Vorgehen in Betracht gezogen. Ehemalige, oft hochdekorierte Soldaten, versuchten den bedrohten Glaubensgenossen zu helfen und einzugreifen, als diese von einem antisemitischen Mob angegriffen wurden. Dieses Eingreifen brachte dem Reichsbund einen Zugewinn an Selbstbewusstsein in seinem Abwehrkampf. Der Scheunenviertelpogrom war für den Bund eine Zäsur und leitete eine zweite Phase der Entwicklung ein. Als kleiner Verein mit einem geringen Bekanntheitsgrad hatte er nur gediente Frontsoldaten in seinen Reihen. Nach dem Pogrom stiegen die Mitgliederzahlen sprunghaft an. Vor allem junge Menschen wollten im Abwehrkampf gegen den Antisemitismus mitkämpfen. Diese Tatsache bewog die Leitung des Reichsbundes zur Erweiterung des Aufgabengebietes. Die sportliche Ertüchtigung wurde als erster Schritt in eine neue Richtung gewertet, die Jugend als Hoffnungsträger für die Fortsetzung des eigenen Kampfes zu gewinnen. Die Aufnahme eines Sportprogrammes in den Aufgabenbereich war einerseits dem starken Antisemitismus geschuldet, andererseits diente er zur Bekräftigung eines positiven jüdischen Selbstbildes, indem das Stigma des „krummen, schwächlichen Juden“ bekämpft werden sollte. Im gleichen Kontext ist auch die neu ins Programm aufgenommene Siedlungspolitik des Reichsbundes zu sehen. Diese wendet sich gegen das Stigma einer ungesunden Berufsstruktur unter der jüdischen Bevölkerung. Der Reichbund wollte beweisen, dass auch ein Jude in der Lage war, Landbau zu betreiben. In der Folge des Pogroms und den damit in Verbindung stehenden Erfolgen intensivierte der Reichsbund seine Gegenwehr gegen antisemitische Propaganda. Dabei wurde er bestärkt durch die Zusammenarbeit mit anderen jüdischen Organisationen, wie dem Centralverein deutscher Staatsbürger jüdischen Glaubens oder der Zionistischen Vereinigung für Deutschland. Auch die Unterstützung durch Vertreter linker, liberaler Parteien, durch örtliche Honoratioren oder durch das Justizsystem trug zu einem erstarkten Selbstbewusstsein bei. Diese gesteigerte Selbstbewusstsein, genährt durch die vermeintlichen Erfolge im Kampf gegen den Antisemitismus, war es auch, dass den Reichsbund ab 1933 nach einer Vormachtstellung unter den deutschen Juden streben lies. In dieser dritten Phase der Geschichte des RjF wurde die über die Jahre streng „gehütete“ Neutralität in innerjüdischen und politischen Belangen beseitigt und der Bund so umgebaut, dass er einer politischen Partei ähnelte. Die Beseitigung der demokratischen Prinzipien innerhalb des RjF durch die einseitige Ausrichtung auf seinen Vorsitzenden Leo Löwenstein rundete dieses Bild ab. Bei seiner Tätigkeit versuchten die Mitglieder des Reichsbundes sich zu entscheiden zwischen einer Identität als Deutscher und Jude. Den Weg der Assimilation zu verlassen und an einer Perspektive in einem anderen Land zu arbeiten, war erst nach der Machtübertragung an die Nationalsozialisten eine denkbare, wenn auch zunächst nicht wünschenswerte Option für den RjF. So rückte schließlich die Identitätsbestimmung als Jude vor die als Deutscher, obwohl der RjF sich in erster Linie als nationaler Verband, der sich aus Soldaten jüdischer „Abstammung“ rekrutierte, und weniger als jüdische Interessenvertretung betrachtet hatte.
Metabolically active microbial communities are present in a wide range of subsurface environments. Techniques like enumeration of microbial cells, activity measurements with radiotracer assays and the analysis of porewater constituents are currently being used to explore the subsurface biosphere, alongside with molecular biological analyses. However, many of these techniques reach their detection limits due to low microbial activity and abundance. Direct measurements of microbial turnover not just face issues of insufficient sensitivity, they only provide information about a single specific process but in sediments many different process can occur simultaneously. Therefore, the development of a new technique to measure total microbial activity would be a major improvement. A new tritium-based hydrogenase-enzyme assay appeared to be a promising tool to quantify total living biomass, even in low activity subsurface environments. In this PhD project total microbial biomass and microbial activity was quantified in different subsurface sediments using established techniques (cell enumeration and pore water geochemistry) as well as a new tritium-based hydrogenase enzyme assay. By using a large database of our own cell enumeration data from equatorial Pacific and north Pacific sediments and published data it was shown that the global geographic distribution of subseafloor sedimentary microbes varies between sites by 5 to 6 orders of magnitude and correlates with the sedimentation rate and distance from land. Based on these correlations, global subseafloor biomass was estimated to be 4.1 petagram-C and ~0.6 % of Earth's total living biomass, which is significantly lower than previous estimates. Despite the massive reduction in biomass the subseafloor biosphere is still an important player in global biogeochemical cycles. To understand the relationship between microbial activity, abundance and organic matter flux into the sediment an expedition to the equatorial Pacific upwelling area and the north Pacific Gyre was carried out. Oxygen respiration rates in subseafloor sediments from the north Pacific Gyre, which are deposited at sedimentation rates of 1 mm per 1000 years, showed that microbial communities could survive for millions of years without fresh supply of organic carbon. Contrary to the north Pacific Gyre oxygen was completely depleted within the upper few millimeters to centimeters in sediments of the equatorial upwelling region due to a higher supply of organic matter and higher metabolic activity. So occurrence and variability of electron acceptors over depth and sites make the subsurface a complex environment for the quantification of total microbial activity. Recent studies showed that electron acceptor processes, which were previously thought to thermodynamically exclude each other can occur simultaneously. So in many cases a simple measure of the total microbial activity would be a better and more robust solution than assays for several specific processes, for example sulfate reduction rates or methanogenesis. Enzyme or molecular assays provide a more general approach as they target key metabolic compounds. Since hydrogenase enzymes are ubiquitous in microbes, the recently developed tritium-based hydrogenase radiotracer assay is applied to quantify hydrogenase enzyme activity as a parameter of total living cell activity. Hydrogenase enzyme activity was measured in sediments from different locations (Lake Van, Barents Sea, Equatorial Pacific and Gulf of Mexico). In sediment samples that contained nitrate, we found the lowest cell specific enzyme activity around 10^(-5) nmol H_(2) cell^(-1) d^(-1). With decreasing energy yield of the electron acceptor used, cell-specific hydrogenase activity increased and maximum values of up to 1 nmol H_(2) cell^(-1) d^(-1) were found in samples with methane concentrations of >10 ppm. Although hydrogenase activity cannot be converted directly into a turnover rate of a specific process, cell-specific activity factors can be used to identify specific metabolism and to quantify the metabolically active microbial population. In another study on sediments from the Nankai Trough microbial abundance and hydrogenase activity data show that both the habitat and the activity of subseafloor sedimentary microbial communities have been impacted by seismic activities. An increase in hydrogenase activity near the fault zone revealed that the microbial community was supplied with hydrogen as an energy source and that the microbes were specialized to hydrogen metabolism.
Im Rahmen der aktuellen Debatte über Veränderungen im Schulsystem rückt auch die Lehramtsausbildung stärker in den Fokus universitärer und öffentlicher Diskussionen. Um Unterricht und Schule weiterzuentwickeln, bedarf es, nach Ansicht des Autors, kompetenter Lehrkräfte, welche reflexiv und forschungsgeleitet ihre Arbeit als einen permanenten Entwicklungsprozess betrachten. Das „Praxisforschen“ ist eine Form des Lehrens und Lernens, mittels dessen die Hochschullehre verbessert werden kann und Lehramtsstudierende gut auf die zukünftigen Anforderungen als Lehrende vorbereitet werden. „Praxisforschen“ bedeutet, anhand konkreter Forschungsfragen Schule und/oder die eigene Unterrichtstätigkeit weiterzuentwickeln. Studierende durchlaufen hierzu einen typischen Forschungsprozess, vom Entwickeln einer Fragestellung bis zur Auswertung und Darstellung der Ergebnisse. Der Artikel beschreibt die Umsetzung des Praxisforschens, wie es momentan in den Begleitseminaren zum Praxissemester an der Universität Potsdam durchgeführt wird und gibt praktische Hinweise für das forschende Lernen mit Studierenden.
Der israelische Autor und Journalist Noah Klieger ist in der deutschsprachigen Forschung zur Holocaustliteratur, in deren Kontext theoretische Konzepte und Interpretationen zahlreicher Autoren (u.a. Ruth Klüger, Primo Levi) dieser Gattung vorliegen, bisher kaum beachtet worden. In der vorliegenden Arbeit steht seine 2010 erschienene Autobiographie „Zwölf Brötchen zum Frühstück“ im Zentrum. Innerhalb der Textanalyse wird der Frage nachgegangen, welche Bedeutung das Schreiben für Klieger hat und inwieweit seine als Reportage angelegte Autobiographie, die den sehr faktenbezogenen und dokumentarischen Stil des Journalisten widerspiegelt, den Rezipienten in der Interpretation lenkt und Authentizität erzeugt. Ausgehend von dieser Fragestellung werden für die Arbeit geführte Interviews mit Noah Klieger (oral history) einbezogen und der Erlebnisbericht „Ich habe den Todesengel überlebt“ von Eva Mozes-Kor, die das Konzept des Erlebnisberichtes mit all seinen Eigenschaften konstant bewahrt, zum Vergleich hinzugezogen. Im Fokus der Arbeit steht die Analyse der Autobiographie Kliegers, wobei auf das Genre Reportage, relevante Stilmittel, zentrale Begrifflichkeiten und Veröffentlichungskontexte sowie auf die Gedächtnistheorie von Maurice Halbwachs eingegangen werden. Abschließend wird die Thematik des Vergebens bei Klieger und Mozes-Kor erörtert. Die Forschungsergebnisse stellen den israelischen Holocaustüberlebenden Noah Klieger als Autor vor und verdeutlichen, dass die innerhalb der Gattung Holocaustliteratur gewählten Darstellungsweisen unterschiedliche Formen von Authentizität evozieren.
In soils and sediments there is a strong coupling between local biogeochemical processes and the distribution of water, electron acceptors, acids and nutrients. Both sides are closely related and affect each other from small scale to larger scales. Soil structures such as aggregates, roots, layers or macropores enhance the patchiness of these distributions. At the same time it is difficult to access the spatial distribution and temporal dynamics of these parameter. Noninvasive imaging techniques with high spatial and temporal resolution overcome these limitations. And new non-invasive techniques are needed to study the dynamic interaction of plant roots with the surrounding soil, but also the complex physical and chemical processes in structured soils. In this study we developed an efficient non-destructive in-situ method to determine biogeochemical parameters relevant to plant roots growing in soil. This is a quantitative fluorescence imaging method suitable for visualizing the spatial and temporal pH changes around roots. We adapted the fluorescence imaging set-up and coupled it with neutron radiography to study simultaneously root growth, oxygen depletion by respiration activity and root water uptake. The combined set up was subsequently applied to a structured soil system to map the patchy structure of oxic and anoxic zones induced by a chemical oxygen consumption reaction for spatially varying water contents. Moreover, results from a similar fluorescence imaging technique for nitrate detection were complemented by a numerical modeling study where we used imaging data, aiming to simulate biodegradation under anaerobic, nitrate reducing conditions.
Der vorliegende 3. Band der „Schriften zum deutschen und russischen Strafrecht“ enthält die Vorträge, die an dem „Internationalen rechtsvergleichenden Runden Tisch zu aktuellen Themen des deutschen und russischen Strafrechts“, der am 18. Dezember 2012 an der Juristischen Fakultät der Universität Potsdam stattgefunden hat, gehalten wurden. Die Beiträge der Wissenschaftler und Praktiker aus Russland und Deutschland decken ein breites Spektrum an Themen ab, die in beiden Ländern von Interesse sind. In den Band aufgenommen wurden zudem der Festvortrag von Prof. Dr. Rarog zum Tag der Juristischen Fakultät der Universität Potsdam am 20. Juni 2012, ein Beitrag von Prof. Dr. Matskevich sowie ein weiterer Aufsatz von Prof. Dr. Rarog und Dr. Nagaeva. Die Publikation der Beiträge in deutscher und russischer Sprache ermöglicht den Lesern in beiden Ländern die Lektüre in der jeweiligen Muttersprache.
Multi-messenger constraints and pressure from dark matter annihilation into electron-positron pairs
(2013)
Despite striking evidence for the existence of dark matter from astrophysical observations, dark matter has still escaped any direct or indirect detection until today. Therefore a proof for its existence and the revelation of its nature belongs to one of the most intriguing challenges of nowadays cosmology and particle physics. The present work tries to investigate the nature of dark matter through indirect signatures from dark matter annihilation into electron-positron pairs in two different ways, pressure from dark matter annihilation and multi-messenger constraints on the dark matter annihilation cross-section. We focus on dark matter annihilation into electron-positron pairs and adopt a model-independent approach, where all the electrons and positrons are injected with the same initial energy E_0 ~ m_dm*c^2. The propagation of these particles is determined by solving the diffusion-loss equation, considering inverse Compton scattering, synchrotron radiation, Coulomb collisions, bremsstrahlung, and ionization. The first part of this work, focusing on pressure from dark matter annihilation, demonstrates that dark matter annihilation into electron-positron pairs may affect the observed rotation curve by a significant amount. The injection rate of this calculation is constrained by INTEGRAL, Fermi, and H.E.S.S. data. The pressure of the relativistic electron-positron gas is computed from the energy spectrum predicted by the diffusion-loss equation. For values of the gas density and magnetic field that are representative of the Milky Way, it is estimated that the pressure gradients are strong enough to balance gravity in the central parts if E_0 < 1 GeV. The exact value depends somewhat on the astrophysical parameters, and it changes dramatically with the slope of the dark matter density profile. For very steep slopes, as those expected from adiabatic contraction, the rotation curves of spiral galaxies would be affected on kiloparsec scales for most values of E_0. By comparing the predicted rotation curves with observations of dwarf and low surface brightness galaxies, we show that the pressure from dark matter annihilation may improve the agreement between theory and observations in some cases, but it also imposes severe constraints on the model parameters (most notably, the inner slope of the halo density profile, as well as the mass and the annihilation cross-section of dark matter particles into electron-positron pairs). In the second part, upper limits on the dark matter annihilation cross-section into electron-positron pairs are obtained by combining observed data at different wavelengths (from Haslam, WMAP, and Fermi all-sky intensity maps) with recent measurements of the electron and positron spectra in the solar neighbourhood by PAMELA, Fermi, and H.E.S.S.. We consider synchrotron emission in the radio and microwave bands, as well as inverse Compton scattering and final-state radiation at gamma-ray energies. For most values of the model parameters, the tightest constraints are imposed by the local positron spectrum and synchrotron emission from the central regions of the Galaxy. According to our results, the annihilation cross-section should not be higher than the canonical value for a thermal relic if the mass of the dark matter candidate is smaller than a few GeV. In addition, we also derive a stringent upper limit on the inner logarithmic slope α of the density profile of the Milky Way dark matter halo (α < 1 if m_dm < 5 GeV, α < 1.3 if m_dm < 100 GeV and α < 1.5 if m_dm < 2 TeV) assuming a dark matter annihilation cross-section into electron-positron pairs (σv) = 3*10^−26 cm^3 s^−1, as predicted for thermal relics from the big bang.
Functional metabolism of storage carbohydrates is vital to plants and animals. The water-soluble glycogen in animal cells and the amylopectin which is the major component of water-insoluble starch granules residing in plant plastids are chemically similar as they consist of α-1,6 branched α-1,4 glucan chains. Synthesis and degradation of transitory starch and of glycogen are accomplished by a set of enzymatic activities that to some extend are also similar in plants and animals. Chain elongation, branching, and debranching are achieved by synthases, branching enzymes, and debranching enzymes, respectively. Similarly, both types of polyglucans contain low amounts of phosphate esters whose abundance varies depending on species and organs. Starch is selectively phosphorylated by at least two dikinases (GWD and PWD) at the glucosyl carbons C6 and C3 and dephosphorylated by the phosphatase SEX4 and SEX4-like enzymes. In Arabidopsis insufficiency in starch phosphorylation or dephosphorylation results in largely impaired starch turnover, starch accumulation, and often in retardation of growth. In humans the progressive neurodegenerative epilepsy, Lafora disease, is the result of a defective enzyme (laforin) that is functional equivalent to the starch phosphatase SEX4 and capable of glycogen dephosphorylation. Patients lacking laforin progressively accumulate unphysiologically structured insoluble glycogen-derived particles (Lafora bodies) in many tissues including brain. Previous results concerning the carbon position of glycogen phosphate are contradictory. Currently it is believed that glycogen is esterified exclusively at the carbon positions C2 and C3 and that the monophosphate esters, being incorporated via a side reaction of glycogen synthase (GS), lack any specific function but are rather an enzymatic error that needs to be corrected. In this study a versatile and highly sensitive enzymatic cycling assay was established that enables quantification of very small G6P amounts in the presence of high concentrations of non-target compounds as present in hydrolysates of polysaccharides, such as starch, glycogen, or cytosolic heteroglycans in plants. Following validation of the G6P determination by analyzing previously characterized starches G6P was quantified in hydrolysates of various glycogen samples and in plant heteroglycans. Interestingly, glucosyl C6 phosphate is present in all glycogen preparations examined, the abundance varying between glycogens of different sources. Additionally, it was shown that carbon C6 is severely hyperphosphorylated in glycogen of Lafora disease mouse model and that laforin is capable of removing C6 phosphate from glycogen. After enrichment of phosphoglucans from amylolytically degraded glycogen, several techniques of two-dimensional NMR were applied that independently proved the existence of 6-phosphoglucosyl residues in glycogen and confirmed the recently described phosphorylation sites C2 and C3. C6 phosphate is neither Lafora disease- nor species-, or organ-specific as it was demonstrated in liver glycogen from laforin-deficient mice and in that of wild type rabbit skeletal muscle. The distribution of 6-phosphoglucosyl residues was analyzed in glycogen molecules and has been found to be uneven. Gradual degradation experiments revealed that C6 phosphate is more abundant in central parts of the glycogen molecules and in molecules possessing longer glucan chains. Glycogen of Lafora disease mice consistently contains a higher proportion of longer chains while most short chains were reduced as compared to wild type. Together with results recently published (Nitschke et al., 2013) the findings of this work completely unhinge the hypothesis of GS-mediated phosphate incorporation as the respective reaction mechanism excludes phosphorylation of this glucosyl carbon, and as it is difficult to explain an uneven distribution of C6 phosphate by a stochastic event. Indeed the results rather point to a specific function of 6-phosphoglucosyl residues in the metabolism of polysaccharides as they are present in starch, glycogen, and, as described in this study, in heteroglycans of Arabidopsis. In the latter the function of phosphate remains unclear but this study provides evidence that in starch and glycogen it is related to branching. Moreover a role of C6 phosphate in the early stages of glycogen synthesis is suggested. By rejecting the current view on glycogen phosphate to be a stochastic biochemical error the results permit a wider view on putative roles of glycogen phosphate and on alternative biochemical ways of glycogen phosphorylation which for many reasons are likely to be mediated by distinct phosphorylating enzymes as it is realized in starch metabolism of plants. Better understanding of the enzymology underlying glycogen phosphorylation implies new possibilities of Lafora disease treatment.
Das rasant voranschreitende Wirtschaftswachstum Chiles in Zusammenhang mit einer sehr liberalen Wirtschafts- und Stadtentwicklungspolitik ist Ursache für eine tiefgreifende gesellschaftliche und urbane Umstrukturierung der chilenischen Hauptstadt. Die Nutznießer dieser Entwicklung sind in jüngster Zeit besonders auch Angehörige der unteren Mittelschicht, für die eigens preiswerte bewachte und umzäunte Wohnprojekte ins Leben gerufen werden. Schwerpunkt der vorliegenden Untersuchung war es, diese sich neu formierende Gesellschaftsschicht genauer zu betrachten und zu untersuchen, mit welchen Anpassungshandlungen diese auf die veränderten Lebens- und Wohnbedingungen innerhalb dieser sogenannten condominios reagieren. Das Konzept condominio scheint zunächst die ideale Antwort auf zahlreiche Handlungsprobleme zu sein; das Wohnen im abgeschlossenen Wohnviertel gibt das Gefühl der Sicherheit und Kontrolle der unmittelbaren Umgebung und ist durch seine Exklusivität gleichzeitig ein willkommenes Statussymbol. Erst auf den zweiten Blick wird sichtbar, was das condominio nicht leisten kann und welche weiteren Probleme mit dem Wohnen im abgeschlossenen Viertel entstehen. Im Laufe der Analyse wurde jedoch die trotz aller Problemlagen essentielle Bedeutung des condominios für ihre Bewohner erkennbar. Die neue Wohnform der unteren Mittelschicht ist nicht nur ein Produkt der sich in ihren Potentialen, Ansprüchen und Werten verändernden Anwohner. Sie wird auch aktiv für die Konstruktion von sozialen Identitäten genutzt und ist damit also zentrales Element in der Formation und Identifikation dieser Gesellschafts-schicht.
In children the way of life, nutrition and recreation changed in recent years and as a consequence body composition shifted as well. It is established that overweight belongs to a global problem. In addition, German children exhibit a less robust skeleton than ten years ago. These developments may elevate the risk of cardiovascular diseases and skeletal modifications. Heredity and environmental factors as nutrition, socioeconomic status, physical activity and inactivity influence fat accumulation and the skeletal system. Based on these negative developments associations between type of body shape, skeletal measures and physical activity; relations between external skeletal robustness, physical activity and inactivity, BMI and body fat and also the progress of body composition especially external skeletal robustness in comparison in Russian and German children were investigated. In a cross-sectional study 691 German boys and girls aged 6 to 10 years were examined. Anthropometric measurements were taken and questionnaires about physical activity and inactivity were answered by parents. Additionally, pedometers were worn to determinate the physical activity in children. To compare the body composition in Russian and German children data from the years 2000 and 2010 were used. The study has shown that pyknomorphic individuals exhibit the highest external skeletal robustness and leptomorphic ones the lowest. Leptomorphic children may have a higher risk for bone diseases in adulthood. Pyknomorphic boys are more physically active by tendency. This is assessed as positive because pyknomorphic types display the highest BMI and body fat. Results showed that physical activity may reduce BMI and body fat. In contrast physical inactivity may lead to an increase of BMI and body fat and may rise with increasing age. Physical activity encourages additionally a robust skeleton. Furthermore external skeletal robustness is associated with BMI in order that BMI as a measure of overweight should be consider critically. The international 10-year comparison has shown an increase of BMI in Russian children and German boys. Currently, Russian children exhibit a higher external skeletal robustness than the Germans. However, in Russian boys skeleton is less robust than ten years ago. This trend should be observed in the future as well in other countries. All in all, several measures should be used to describe health situation in children and adults. Furthermore, in children it is essential to support physical activity in order to reduce the risk of obesity and to maintain a robust skeleton. In this way diseases are able to prevent in adulthood.
In the context of ecological risk assessment of chemicals, individual-based population models hold great potential to increase the ecological realism of current regulatory risk assessment procedures. However, developing and parameterizing such models is time-consuming and often ad hoc. Using standardized, tested submodels of individual organisms would make individual-based modelling more efficient and coherent. In this thesis, I explored whether Dynamic Energy Budget (DEB) theory is suitable for being used as a standard submodel in individual-based models, both for ecological risk assessment and theoretical population ecology. First, I developed a generic implementation of DEB theory in an individual-based modeling (IBM) context: DEB-IBM. Using the DEB-IBM framework I tested the ability of the DEB theory to predict population-level dynamics from the properties of individuals. We used Daphnia magna as a model species, where data at the individual level was available to parameterize the model, and population-level predictions were compared against independent data from controlled population experiments. We found that DEB theory successfully predicted population growth rates and peak densities of experimental Daphnia populations in multiple experimental settings, but failed to capture the decline phase, when the available food per Daphnia was low. Further assumptions on food-dependent mortality of juveniles were needed to capture the population dynamics after the initial population peak. The resulting model then predicted, without further calibration, characteristic switches between small- and large-amplitude cycles, which have been observed for Daphnia. We conclude that cross-level tests help detecting gaps in current individual-level theories and ultimately will lead to theory development and the establishment of a generic basis for individual-based models and ecology. In addition to theoretical explorations, we tested the potential of DEB theory combined with IBMs to extrapolate effects of chemical stress from the individual to population level. For this we used information at the individual level on the effect of 3,4-dichloroanailine on Daphnia. The individual data suggested direct effects on reproduction but no significant effects on growth. Assuming such direct effects on reproduction, the model was able to accurately predict the population response to increasing concentrations of 3,4-dichloroaniline. We conclude that DEB theory combined with IBMs holds great potential for standardized ecological risk assessment based on ecological models.
Die Komplexität heutiger Geschäftsabläufe und die Menge der zu verwaltenden Daten stellen hohe Anforderungen an die Entwicklung und Wartung von Geschäftsanwendungen. Ihr Umfang entsteht unter anderem aus der Vielzahl von Modellentitäten und zugehörigen Nutzeroberflächen zur Bearbeitung und Analyse der Daten. Dieser Bericht präsentiert neuartige Konzepte und deren Umsetzung zur Vereinfachung der Entwicklung solcher umfangreichen Geschäftsanwendungen. Erstens: Wir schlagen vor, die Datenbank und die Laufzeitumgebung einer dynamischen objektorientierten Programmiersprache zu vereinen. Hierzu organisieren wir die Speicherstruktur von Objekten auf die Weise einer spaltenorientierten Hauptspeicherdatenbank und integrieren darauf aufbauend Transaktionen sowie eine deklarative Anfragesprache nahtlos in dieselbe Laufzeitumgebung. Somit können transaktionale und analytische Anfragen in derselben objektorientierten Hochsprache implementiert werden, und dennoch nah an den Daten ausgeführt werden. Zweitens: Wir beschreiben Programmiersprachkonstrukte, welche es erlauben, Nutzeroberflächen sowie Nutzerinteraktionen generisch und unabhängig von konkreten Modellentitäten zu beschreiben. Um diese abstrakte Beschreibung nutzen zu können, reichert man die Domänenmodelle um vormals implizite Informationen an. Neue Modelle müssen nur um einige Informationen erweitert werden um bereits vorhandene Nutzeroberflächen und -interaktionen auch für sie verwenden zu können. Anpassungen, die nur für ein Modell gelten sollen, können unabhängig vom Standardverhalten, inkrementell, definiert werden. Drittens: Wir ermöglichen mit einem weiteren Programmiersprachkonstrukt die zusammenhängende Beschreibung von Abläufen der Anwendung, wie z.B. Bestellprozesse. Unser Programmierkonzept kapselt Nutzerinteraktionen in synchrone Funktionsaufrufe und macht somit Prozesse als zusammenhängende Folge von Berechnungen und Interaktionen darstellbar. Viertens: Wir demonstrieren ein Konzept, wie Endnutzer komplexe analytische Anfragen intuitiver formulieren können. Es basiert auf der Idee, dass Endnutzer Anfragen als Konfiguration eines Diagramms sehen. Entsprechend beschreibt ein Nutzer eine Anfrage, indem er beschreibt, was sein Diagramm darstellen soll. Nach diesem Konzept beschriebene Diagramme enthalten ausreichend Informationen, um daraus eine Anfrage generieren zu können. Hinsichtlich der Ausführungsdauer sind die generierten Anfragen äquivalent zu Anfragen, die mit konventionellen Anfragesprachen formuliert sind. Das Anfragemodell setzen wir in einem Prototypen um, der auf den zuvor eingeführten Konzepten aufsetzt.
Körperliche Attraktivität und gutes Aussehen spielen in der heutigen Gesellschaft eine entscheidende Rolle, was bereits frühzeitig auch Kinder und Jugendliche in ihren Einstellungen und der Wahrnehmung ihres Körpers prägt. Sorgen um den eigenen Körper gelten als normatives Problem unter Jugendlichen und bergen nicht selten das Risiko für gesundheitsgefährdendes Verhalten und psychische Erkrankungen. In der Suche nach den Ursachen gerieten in den letzten Jahren insbesondere soziokulturelle Faktoren, insbesondere der Einfluss von medial vermittelten Schönheitsidealen, in den Fokus der Forschung. Es ist jedoch fraglich, warum nicht alle Jugendlichen in gleicher Weise auf den allgegenwärtigen Mediendruck reagieren. Naheliegend ist, dass die Jugendlichen besonders gefährdet sind, deren unmittelbares soziales Umfeld das geltende Schönheitsideal direkt oder indirekt vermittelt und verstärkt. Das Verständnis der Rolle sozialen Drucks ist jedoch bislang noch durch zahlreiche inhaltliche und methodische Aspekte beschränkt (z.B. Einschränkungen in der Operationalisierung, ungenügende Berücksichtigung geschlechtsspezifischer Mechanismen, fehlende längsschnittliche Belege). Daher widmet sich die vorliegende Arbeit der Bedeutung aussehensbezogenen sozialen Drucks in der Entstehung von Körperunzufriedenheit im Jugendalter in drei aufeinander aufbauenden Untersuchungsschritten. Ausgehend von der Entwicklung eines umfassenden und zuverlässigen Erhebungsinstruments zielt die Arbeit darauf ab, unterschiedliche Aspekte sozialen Drucks gegenüberzustellen und hinsichtlich ihrer Verbreitung und Risikowirkung zu vergleichen. Die Umsetzung des Forschungsvorhabens erfolgte in unterschiedlichen Schülerstichproben der Klassen 7 bis 9 unterschiedlicher Gymnasien und Gesamtschulen (Hauptstichprobe N = 1112, im Mittel = 13.4 ± 0.8 Jahre). Dabei wurden sowohl quer- als auch längsschnittliche Analysen durchgeführt. Zusätzlich wurden zur Erprobung des Fragebogenverfahrens klinische Stichproben mit Ess- und Gewichtsstörungen herangezogen. Zur detaillierten Erfassung unterschiedlicher Formen aussehensbezogenen sozialen Drucks erfolgte im ersten Schritt die Entwicklung des Fragebogen zum aussehensbezogen sozialen Druck (FASD), welcher acht unterschiedliche Formen aussehensbezogene sozialen Drucks ausgehend von Eltern und Gleichaltrigen reliabel und valide erfasst. Dabei erwies sich das Verfahren gleichermaßen für Jungen und Mädchen, wie für Jugendliche mit unterschiedlichem Gewichtsstatus geeignet. Die psychometrische Güte des Verfahrens konnte sowohl für populationsbasierte als auch für klinische Stichproben mit Ess- und Gewichtsstörung belegt werden, wodurch eine breite Einsatzmöglichkeit in Forschung und Praxis denkbar ist. Im zweiten Schritt erfolgte die Untersuchung der Verbreitung aussehensbezogenen sozialen Drucks unter besonderer Berücksichtigung von Geschlechts-, Alters- und Gewichtsgruppenunterschieden. Dabei erwiesen sich Mädchen als stärker von aussehensbezogenem Druck durch Gleichaltrige betroffen als Jungen. Darüberhinaus legen die Ergebnisse nahe, dass Übergewicht ungeachtet des Geschlechts mit verstärkten aussehensbezogenen Abwertungen und Ausgrenzungserfahrungen verbunden ist. Zudem deuten die Alterseffekte der Studie darauf hin, dass der Übergang von früher zu mittlerer Adoleszenz aber auch Schulwechsel besonderes kritische Zeitpunkte für die Etablierung aussehensbezogener Einflüsse darstellen. Abschließend widmete sich die Arbeit der längsschnittlichen Risikowirkung unterschiedlicher Aspekte aussehensbezogenen sozialen Drucks in der Entstehung von Körperunzufriedenheit. Aussehensbezogene Einflüsse von Freunden verstärkten längsschnittlich Körpersorgen sowohl bei Mädchen als auch bei Jungen. Zudem ergab sich das Erleben von Ausgrenzung durch Gleichaltrige als entscheidender Risikofaktor für gewichtsbezogene Körpersorgen unter Jungen. Als bedeutsamster elterlicher Einfluss erwiesen sich Aufforderungen auf die Figur zu achten. Diese Aufforderungen verstärkten gleichermaßen für Mädchen und Jungen gewichtsbezogene Körpersorgen. Die vorliegende Arbeit widmete sich dem Ziel, die Rolle aussehensbezogener sozialer Einflüsse weiter aufzuklären. Das dazu vorgelegte umfassende Instrument ermöglichte eine differenzierte Betrachtung der Verbreitung und Wirkung unterschiedlicher Formen sozialen Drucks. Hierdurch weisen die Ergebnisse nicht nur auf wichtige geschlechtsspezifische Mechanismen hin, sondern leisten ebenso einen Beitrag zum vertieften Verständnis der Risikowirkung sozialen Drucks. Diese Erkenntnisse liefern somit einerseits konkrete Ansatzpunkte für Prävention und Intervention und ermöglichen andererseits auch eine weitere Konkretisierung bereits etablierter soziokultureller Wirkmodelle.
Large areas in the humid tropics are currently undergoing land-use change. The decrease of tropical rainforest, which is felled for land clearing and timber production, is countered by increasing areas of tree plantations and secondary forests. These changes are known to affect the regional water cycle as a result of plant-specific water demand and by influencing key soil properties which determine hydrological flow paths. One of these key properties sensitive to land-use change is the saturated hydraulic conductivity (Ks) as it governs vertical percolation of water within the soil profile. Low values of Ks in a certain soil depth can form an impeding layer and lead to perched water tables and the development of predominantly lateral flow paths such as overland flow. These processes can induce nutrient redistribution, erosion and soil degradation and thus affect ecosystem services and human livelihoods. Due to its sensitivity to land-use change, Ks is commonly used to assess the associated changes in hydrological flow paths. The objective of this dissertation was to assess the effect of land-use change on hydrological flow paths by analysing Ks as indicator variable. Sources of Ks variability, their implications for Ks monitoring and the relationship between Ks and near-surface hydrological flow paths in the context of land-use change were studied. The research area was located in central Panama, a country widely experiencing the abovementioned changes in land use. Ks is dependent on both static, soil-inherent properties such as particle size and clay mineralogy and dynamic, land use-dependent properties such as organic carbon content. By conducting a pair of studies with one of these influences held constant in each, the importance of static and dynamic properties for Ks was assessed. Applying a space-for-time approach to sample Ks under secondary forests of different age classes on comparable soils, a recovery of Ks from the former pasture use was shown to require more than eight years. The process was limited to the 0−6 cm sampling depth and showed large variability among replicates. A wavelet analysis of a Ks transect crossing different soil map units under comparable land cover, old-growth tropical rainforest, showed large small-scale variability, which was attributed to biotic influences, as well as a possible but non-conclusive influence of soil types. The two results highlight the importance of dynamic, land use-dependent influences on Ks. Monitoring studies can help to quantify land use-induced change of Ks, but there is a variety of sampling designs which differ in efficiency of estimating mean Ks. A comparative study of four designs and their suitability for Ks monitoring is used to give recommendations about designing a Ks monitoring scheme. Quantifying changes in spatial means of Ks for small catchments with a rotational stratified sampling design did not prove to be more efficient than Simple Random Sampling. The lack of large-scale spatial structure prevented benefits of stratification, and large small-scale variability resulting from local biotic processes and artificial effects of destructive sampling caused a lack of temporal consistency in the re-sampling of locations, which is part of the rotational design. The relationship between Ks and near-surface hydrological flow paths is of critical importance when assessing the consequences of land-use change in the humid tropics. The last part of this dissertation aimed at disclosing spatial relationships between Ks and overland flow as influenced by different land cover types. The effects of Ks on overland-flow generation were spatially variable, different between planar plots and incised flowlines and strongly influenced by land-cover characteristics. A simple comparison of Ks values and rainfall intensities was insufficient to describe the observed pattern of overland flow. Likewise, event flow in the stream was apparently not directly related to overland flow response patterns within the catchments. The study emphasises the importance of combining pedological, hydrological, meteorological and botanical measurements to comprehensively understand the land use-driven change in hydrological flow paths. In summary, Ks proved to be a suitable parameter for assessing the influence of land-use change on soils and hydrological processes. The results illustrated the importance of land cover and spatial variability of Ks for decisions on sampling designs and for interpreting overland-flow generation. As relationships between Ks and overland flow were shown to be complex and dependent on land cover, an interdisciplinary approach is required to comprehensively understand the effects of land-use change on soils and near-surface hydrological flow paths in the humid tropics.
In a recent paper with N. Tarkhanov, the Lefschetz number for endomorphisms (modulo trace class operators) of sequences of trace class curvature was introduced. We show that this is a well defined, canonical extension of the classical Lefschetz number and establish the homotopy invariance of this number. Moreover, we apply the results to show that the Lefschetz fixed point formula holds for geometric quasiendomorphisms of elliptic quasicomplexes.
Die Zeitschrift möchte die fruchtbare und facettenreiche Kultur des Judentums sowie seine Berührungspunkte zur Umwelt in den unterschiedlichen Bereichen dokumentieren. Daneben dient die Zeitschrift als Forum zur Positionierung der Fächer Jüdische Studien und Judaistik innerhalb des wissenschaftlichen Diskurses sowie zur Diskussion ihrer historischen und gesellschaftlichen Verantwortung.
Das Selenoprotein Glutathionperoxidase 2 (GPx2) ist ein epithelzellspezifisches, Hydroperoxide-reduzierendes Enzym, welches im Darmepithel, vor allem in den proliferierenden Zellen des Kryptengrundes, exprimiert wird. Die Aufrechterhaltung der GPx2-Expression im Kryptengrund auch bei subadäquatem Selenstatus könnte darauf hinweisen, dass sie hier besonders wichtige Funktionen wahrnimmt. Tatsächlich weisen GPx2 knockout (KO)-Mäuse eine erhöhte Apoptoserate im Kryptengrund auf. Ein Ziel dieser Arbeit war es deshalb, die physiologische Funktion der GPx2 näher zu untersuchen. In Kryptengrundepithelzellen aus dem Colon selenarmer GPx2 KO-Mäuse wurde eine erhöhte Caspase 3/7-Aktivität im Vergleich zum Wildtyp (WT) festgestellt. Zudem wiesen diese Zellen eine erhöhte Suszeptibilität für oxidativen Stress auf. Die GPx2 gewährleistet also den Schutz der proliferierenden Zellen des Kryptengrundes auch bei subadäquater Selenversorgung. Des Weiteren wurde im Colon selenarmer (-Se) und -adäquater (+Se) GPx2 KO-Mäuse im Vergleich zum WT eine erhöhte Tumornekrosefaktor α-Expression und eine erhöhte Infiltration von Makrophagen festgestellt. Durch Fütterung einer selensupplementierten Diät (++Se) konnte dies verhindert werden. In GPx2 KO-Mäusen liegt demnach bereits basal eine niedriggradige Entzündung vor. Dies unterstreicht, dass GPx2 vor allem eine wichtige antiinflammatorische Funktion im Darmepithel besitzt. Dem Mikronährstoff Selen werden protektive Funktionen in der Colonkanzerogenese zugeschrieben. In einem Mausmodell der Colitis-assoziierten Colonkanzerogenese wirkte GPx2 antiinflammatorisch und hemmte so die Tumorentstehung. Auf der anderen Seite wurden jedoch auch prokanzerogene Eigenschaften der GPx2 aufgedeckt. Deshalb sollte in dieser Arbeit untersucht werden, welchen Effekt ein GPx2 knockout in einem Modell der sporadischen, durch Azoxymethan (AOM) induzierten, Colonkanzerogenese hat. Im WT kam es in präneoplastischen Läsionen häufig zu einer erhöhten GPx2-Expression im Vergleich zur normalen Darmmucosa. Eine derartige Steigerung der GPx2-Expression wurde auch in der humanen Colonkanzerogenese beschrieben. Das Fehlen der GPx2 resultierte in einer verminderten Entstehung von Tumoren (-Se und ++Se) und präneoplastischen Läsionen (-Se und +Se). Somit förderte GPx2 die Tumorentstehung im AOM-Modell. Acht Stunden nach AOM-Gabe war im GPx2 KO-Colon im Vergleich zum WT eine erhöhte Apoptoserate in der Kryptenmitte (-Se, +Se), nicht jedoch im Kryptengrund oder in der ++Se-Gruppe zu beobachten. Möglicherweise wirkte GPx2 prokanzerogen, indem sie die effiziente Elimination geschädigter Zellen in der Tumorinitiationsphase verhinderte. Eine ähnliche Wirkung wäre auch durch die erhöhte GPx2-Expression in der Promotionsphase denkbar. So könnte GPx2 proliferierende präneoplastische Zellen vor oxidativem Stress, Apoptosen, oder auch der Antitumorimmunität schützen. Dies könnte durch ein Zusammenwirken mit anderen Selenoproteinen wie GPx1 und Thioredoxinreduktasen, für die ebenfalls auch prokanzerogene Funktionen beschrieben wurden, verstärkt werden. Eine wichtige Rolle könnte hier die Modulation des Redoxstatus in Tumorzellen spielen. Die Variation des Selengehalts der Diät hatte im WT einen eher U-förmigen Effekt. So traten in der –Se und ++Se-Gruppe tendenziell mehr und größere Tumore auf, als in der +Se Gruppe. Zusammenfassend schützt GPx2 also die proliferierenden Zellen des Kryptengrundes. Sie könnte jedoch auch proliferierende transformierte Zellen schützen und so die sporadische, AOM-induzierte Colonkanzerogenese fördern. In einem Modell der Colitis-assoziierten Colonkanzerogenese hatte GPx2 auf Grund ihrer antiinflammatorischen Wirkung einen gegenteiligen Effekt und hemmte die Tumorentstehung. Die Rolle der GPx2 in der Colonkanzerogenese ist also abhängig vom zugrunde liegenden Mechanismus und wird maßgeblich von der Beteiligung einer Entzündung bestimmt.
Companies strive to improve their business processes in order to remain competitive. Process mining aims to infer meaningful insights from process-related data and attracted the attention of practitioners, tool-vendors, and researchers in recent years. Traditionally, event logs are assumed to describe the as-is situation. But this is not necessarily the case in environments where logging may be compromised due to manual logging. For example, hospital staff may need to manually enter information regarding the patient’s treatment. As a result, events or timestamps may be missing or incorrect. In this paper, we make use of process knowledge captured in process models, and provide a method to repair missing events in the logs. This way, we facilitate analysis of incomplete logs. We realize the repair by combining stochastic Petri nets, alignments, and Bayesian networks. We evaluate the results using both synthetic data and real event data from a Dutch hospital.
Business processes are instrumental to manage work in organisations. To study the interdependencies between business processes, Business Process Architectures have been introduced. These express trigger and message ow relations between business processes. When we investigate real world Business Process Architectures, we find complex interdependencies, involving multiple process instances. These aspects have not been studied in detail so far, especially concerning correctness properties. In this paper, we propose a modular transformation of BPAs to open nets for the analysis of behavior involving multiple business processes with multiplicities. For this purpose we introduce intermediary nets to portray semantics of multiplicity specifications. We evaluate our approach on a use case from the public sector.
Enacting business processes in process engines requires the coverage of control flow, resource assignments, and process data. While the first two aspects are well supported in current process engines, data dependencies need to be added and maintained manually by a process engineer. Thus, this task is error-prone and time-consuming. In this report, we address the problem of modeling processes with complex data dependencies, e.g., m:n relationships, and their automatic enactment from process models. First, we extend BPMN data objects with few annotations to allow data dependency handling as well as data instance differentiation. Second, we introduce a pattern-based approach to derive SQL queries from process models utilizing the above mentioned extensions. Therewith, we allow automatic enactment of data-aware BPMN process models. We implemented our approach for the Activiti process engine to show applicability.
Unter geeigneten Wachstumsbedingungen weisen Algenkulturen oft eine größere Produktivität der Zellen auf, als sie bei höheren Pflanzen zu beobachten ist. Chlamydomonas reinhardtii-Zellen sind vergleichsweise klein. So beträgt das Zellvolumen während des vegetativen Zellzyklus etwa 50–3500 µm³. Im Vergleich zu höheren Pflanzen ist in einer Algensuspension die Konzentration der Biomasse allerdings gering. So enthält beispielsweise 1 ml einer üblichen Konzentration zwischen 10E6 und 10E7 Algenzellen. Quantifizierungen von Metaboliten oder Makromolekülen, die zur Modellierung von zellulären Prozessen genutzt werden, werden meist im Zellensemble vorgenommen. Tatsächlich unterliegt jedoch jede Algenzelle einer individuellen Entwicklung, die die Identifizierung charakteristischer allgemeingültiger Systemparameter erschwert. Ziel dieser Arbeit war es, biochemisch relevante Messgrößen in-vivo und in-vitro mit Hilfe optischer Verfahren zu identifizieren und zu quantifizieren. Im ersten Teil der Arbeit wurde ein Puls-Amplituden-Modulation(PAM)-Fluorimetriemessplatz zur Messung der durch äußere Einflüsse bedingten veränderlichen Chlorophyllfluoreszenz an einzelnen Zellen vorgestellt. Die Verwendung eines kommerziellen Mikroskops, die Implementierung empfindlicher Nachweiselektronik und einer geeignete Immobilisierungsmethode ermöglichten es, ein Signal-zu-Rauschverhältnis zu erreichen, mit dem Fluoreszenzsignale einzelner lebender Chlamydomonas-Zellen gemessen werden konnten. Insbesondere wurden das Zellvolumen und der als Maß für die Effizienz des Photosyntheseapparats bzw. die Zellfitness geltende Chlorophyllfluoreszenzparameter Fv/Fm ermittelt und ein hohes Maß an Heterogenität dieser zellulären Parameter in verschiedenen Entwicklungsstadien der synchronisierten Chlamydomonas-Zellen festgestellt. Im zweiten Teil der Arbeit wurden die bildgebende Laser-Scanning-Mikroskopie und anschließende Bilddatenanalyse zur quantitativen Erfassung der wachstumsabhängigen zellulären Parameter angewandt. Ein kommerzielles konfokales Mikroskop wurde um die Möglichkeit der nichtlinearen Mikroskopie erweitert. Diese hat den Vorteil einer lokalisierten Anregung, damit verbunden einer höheren Ortsauflösung und insgesamt geringeren Probenbelastung. Weiterhin besteht neben der Signalgewinnung durch Fluoreszenzanregung die Möglichkeit der Erzeugung der Zweiten Harmonischen (SHG) an biophotonischen Strukturen, wie der zellulären Stärke. Anhand der Verteilungsfunktionen war es möglich mit Hilfe von modelltheoretischen Ansätzen zelluläre Parameter zu ermitteln, die messtechnisch nicht unmittelbar zugänglich sind. Die morphologischen Informationen der Bilddaten ermöglichten die Bestimmung der Zellvolumina und die Volumina subzellularer Strukturen, wie Nuclei, extranucleäre DNA oder Stärkegranula. Weiterhin konnte die Anzahl subzellulärer Strukturen innerhalb einer Zelle bzw. eines Zellverbunds ermittelt werden. Die Analyse der in den Bilddaten enthaltenen Signalintensitäten war Grundlage einer relativen Konzentrationsbestimmung von zellulären Komponenten, wie DNA bzw. Stärke. Mit dem hier vorgestellten Verfahren der nichtlinearen Mikroskopie und nachfolgender Bilddatenanalyse konnte erstmalig die Verteilung des zellulären Stärkegehalts in einer Chlamydomonas-Population während des Wachstums bzw. nach induziertem Stärkeabbau verfolgt werden. Im weiteren Verlauf wurde diese Methode auch auf Gefrierschnitte höherer Pflanzen, wie Arabidopsis thaliana, angewendet. Im Ergebnis wurde gezeigt, dass viele zelluläre Parameter, wie das Volumen, der zelluläre DNA- und Stärkegehalt bzw. die Anzahl der Stärkegranula durch eine Lognormalverteilung, mit wachstumsabhängiger Parametrisierung, beschrieben werden. Zelluläre Parameter, wie Stoffkonzentration und zelluläres Volumen, zeigen keine signifikanten Korrelationen zueinander, woraus geschlussfolgert werden muss, dass es ein hohes Maß an Heterogenität der zellulären Parameter innerhalb der synchronisierten Chlamydomonas-Populationen gibt. Diese Aussage gilt sowohl für die als homogenste Form geltenden Synchronkulturen von Chlamydomonas reinhardtii als auch für die gemessenen zellulären Parameter im intakten Zellverbund höherer Pflanzen. Dieses Ergebnis ist insbesondere für modelltheoretische Betrachtungen von Relevanz, die sich auf empirische Daten bzw. zelluläre Parameter stützen welche im Zellensemble gemessen wurden und somit nicht notwendigerweise den zellulären Status einer einzelnen Zelle repräsentieren.
Jahresbericht 2012
(2013)
Inhalt: 1. Allgemeiner Überblick 2. Organisationsstruktur des MRZ 2.1 Angehörige des MRZ 2.2 Wissenschaftlicher Beirat des MRZ 2.3 Förderverein 3. Aktivitäten im Berichtszeitraum 3.1 Forschungsprojekte und wissenschaftliche Veranstaltungen 3.2 Promotionen 3.3 Lehrveranstaltungen 3.4 Publikationen – Neuerscheinungen 2012 3.5 Wissenschaftliche Vorträge, Vorlesungen, Fachgespräche u. ä. 4. Anhang
Die neue interaktive Online-Bildungsplattform openHPI (https://openHPI.de) des Hasso-Plattner-Instituts (HPI) bietet frei zugängliche und kostenlose Onlinekurse für interessierte Teilnehmer an, die sich mit Inhalten aus dem Bereich der Informationstechnologien und Informatik beschäftige¬n. Wie die seit 2011 zunächst von der Stanford University, später aber auch von anderen Elite-Universitäten der USA angeboten „Massive Open Online Courses“, kurz MOOCs genannt, bietet openHPI im Internet Lernvideos und weiterführenden Lesestoff in einer Kombination mit lernunterstützenden Selbsttests, Hausaufgaben und einem sozialen Diskussionsforum an und stimuliert die Ausbildung einer das Lernen fördernden virtuellen Lerngemeinschaft. Im Unterschied zu „traditionellen“ Vorlesungsportalen, wie z.B. dem tele-TASK Portal (http://www.tele-task.de), bei dem multimedial aufgezeichnete Vorlesungen zum Abruf bereit gestellt werden, bietet openHPI didaktisch aufbereitete Onlinekurse an. Diese haben einen festen Starttermin und bieten dann in einem austarierten Zeitplan von sechs aufeinanderfolgenden Kurswochen multimedial aufbereitete und wann immer möglich interaktive Lehrmaterialien. In jeder Woche wird ein Kapitel des Kursthemas behandelt. Dazu werden zu Wochenbeginn eine Reihe von Lehrvideos, Texten, Selbsttests und ein Hausaufgabenblatt bereitgestellt, mit denen sich die Kursteilnehmer in dieser Woche beschäftigen. Kombiniert sind die Angebote mit einer sozialen Diskussionsplattform, auf der sich die Teilnehmer mit den Kursbetreuern und anderen Teilnehmern austauschen, Fragen klären und weiterführende Themen diskutieren können. Natürlich entscheiden die Teilnehmer selbst über Art und Umfang ihrer Lernaktivitäten. Sie können in den Kurs eigene Beiträge einbringen, zum Beispiel durch Blogposts oder Tweets, auf die sie im Forum verweisen. Andere Lernende können diese dann kommentieren, diskutieren oder ihrerseits erweitern. Auf diese Weise werden die Lernenden, die Lehrenden und die angebotenen Lerninhalte in einer virtuellen Gemeinschaft, einem sozialen Lernnetzwerk miteinander verknüpft.
The service-oriented architecture supports the dynamic assembly and runtime reconfiguration of complex open IT landscapes by means of runtime binding of service contracts, launching of new components and termination of outdated ones. Furthermore, the evolution of these IT landscapes is not restricted to exchanging components with other ones using the same service contracts, as new services contracts can be added as well. However, current approaches for modeling and verification of service-oriented architectures do not support these important capabilities to their full extend.In this report we present an extension of the current OMG proposal for service modeling with UML - SoaML - which overcomes these limitations. It permits modeling services and their service contracts at different levels of abstraction, provides a formal semantics for all modeling concepts, and enables verifying critical properties. Our compositional and incremental verification approach allows for complex properties including communication parameters and time and covers besides the dynamic binding of service contracts and the replacement of components also the evolution of the systems by means of new service contracts. The modeling as well as verification capabilities of the presented approach are demonstrated by means of a supply chain example and the verification results of a first prototype are shown.
Die Anpassung von Sektoren an veränderte klimatische Bedingungen erfordert ein Verständnis von regionalen Vulnerabilitäten. Vulnerabilität ist als Funktion von Sensitivität und Exposition, welche potentielle Auswirkungen des Klimawandels darstellen, und der Anpassungsfähigkeit von Systemen definiert. Vulnerabilitätsstudien, die diese Komponenten quantifizieren, sind zu einem wichtigen Werkzeug in der Klimawissenschaft geworden. Allerdings besteht von der wissenschaftlichen Perspektive aus gesehen Uneinigkeit darüber, wie diese Definition in Studien umgesetzt werden soll. Ausdiesem Konflikt ergeben sich viele Herausforderungen, vor allem bezüglich der Quantifizierung und Aggregierung der einzelnen Komponenten und deren angemessenen Komplexitätsniveaus. Die vorliegende Dissertation hat daher zum Ziel die Anwendbarkeit des Vulnerabilitätskonzepts voranzubringen, indem es in eine systematische Struktur übersetzt wird. Dies beinhaltet alle Komponenten und schlägt für jede Klimaauswirkung (z.B. Sturzfluten) eine Beschreibung des vulnerablen Systems vor (z.B. Siedlungen), welches direkt mit einer bestimmten Richtung eines relevanten klimatischen Stimulus in Verbindung gebracht wird (z.B. stärkere Auswirkungen bei Zunahme der Starkregentage). Bezüglich der herausfordernden Prozedur der Aggregierung werden zwei alternative Methoden, die einen sektorübergreifenden Überblick ermöglichen, vorgestellt und deren Vor- und Nachteile diskutiert. Anschließend wird die entwickelte Struktur einer Vulnerabilitätsstudie mittels eines indikatorbasierten und deduktiven Ansatzes beispielhaft für Gemeinden in Nordrhein-Westfalen in Deutschland angewandt. Eine Übertragbarkeit auf andere Regionen ist dennoch möglich. Die Quantifizierung für die Gemeinden stützt sich dabei auf Informationen aus der Literatur. Da für viele Sektoren keine geeigneten Indikatoren vorhanden waren, werden in dieser Arbeit neue Indikatoren entwickelt und angewandt, beispielsweise für den Forst- oder Gesundheitssektor. Allerdings stellen fehlende empirische Daten bezüglich relevanter Schwellenwerte eine Lücke dar, beispielsweise welche Stärke von Klimaänderungen eine signifikante Auswirkung hervorruft. Dies führt dazu, dass die Studie nur relative Aussagen zum Grad der Vulnerabilität jeder Gemeinde im Vergleich zum Rest des Bundeslandes machen kann. Um diese Lücke zu füllen, wird für den Forstsektor beispielhaft die heutige und zukünftige Sturmwurfgefahr von Wäldern berechnet. Zu diesem Zweck werden die Eigenschaften der Wälder mit empirischen Schadensdaten eines vergangenen Sturmereignisses in Verbindung gebracht. Der sich daraus ergebende Sensitivitätswert wird anschließend mit den Windverhältnissen verknüpft. Sektorübergreifende Vulnerabilitätsstudien erfordern beträchtliche Ressourcen, was oft deren Anwendbarkeit erschwert. In einem nächsten Schritt wird daher das Potential einer Vereinfachung der Komplexität anhand zweier sektoraler Beispiele untersucht. Um das Auftreten von Waldbränden vorherzusagen, stehen zahlreiche meteorologische Indices zur Verfügung, welche eine Spannbreite unterschiedlicher Komplexitäten aufweisen. Bezüglich der Anzahl monatlicher Waldbrände weist die relative Luftfeuchtigkeit für die meisten deutschen Bundesländer eine bessere Vorhersagekraft als komplexere Indices auf. Dies ist er Fall, obgleich sie selbst als Eingangsvariable für die komplexeren Indices verwendet wird. Mit Hilfe dieses einzelnen meteorologischen Faktors kann also die Waldbrandgefahr in deutschen Region ausreichend genau ausgedrückt werden, was die Ressourceneffizienz von Studien erhöht. Die Methodenkomplexität wird auf ähnliche Weise hinsichtlich der Anwendung des ökohydrologischen Modells SWIM für die Region Brandenburg untersucht. Die interannuellen Bodenwasserwerte, welche durch dieses Modell simuliert werden, können nur unzureichend durch ein einfacheres statistisches Modell, welches auf denselben Eingangsdaten aufbaut, abgebildet werden. Innerhalb eines Zeithorizonts von Jahrzehnten, kann der statistische Ansatz jedoch das Bodenwasser zufriedenstellend abbilden und zeigt eine Dominanz der Bodeneigenschaft Feldkapazität. Dies deutet darauf hin, dass die Komplexität im Hinblick auf die Anzahl der Eingangsvariablen für langfristige Berechnungen reduziert werden kann. Allerdings sind die Aussagen durch fehlende beobachtete Bodenwasserwerte zur Validierung beschränkt. Die vorliegenden Studien zur Vulnerabilität und ihren Komponenten haben gezeigt, dass eine Anwendung noch immer wissenschaftlich herausfordernd ist. Folgt man der hier verwendeten Vulnerabilitätsdefinition, treten zahlreiche Probleme bei der Implementierung in regionalen Studien auf. Mit dieser Dissertation wurden Fortschritte bezüglich der aufgezeigten Lücken bisheriger Studien erzielt, indem eine systematische Struktur für die Beschreibung und Aggregierung von Vulnerabilitätskomponenten erarbeitet wurde. Hierfür wurden mehrere Ansätze diskutiert, die jedoch Vor- und Nachteile besitzen. Diese sollten vor der Anwendung von zukünftigen Studien daher ebenfalls sorgfältig abgewogen werden. Darüber hinaus hat sich gezeigt, dass ein Potential besteht einige Ansätze zu vereinfachen, jedoch sind hierfür weitere Untersuchungen nötig. Insgesamt konnte die Dissertation die Anwendung von Vulnerabilitätsstudien als Werkzeug zur Unterstützung von Anpassungsmaßnahmen stärken.
Korrelation zwischen der genetischen und der funktionellen Diversität humaner Bitterrezeptoren
(2013)
Der Mensch besitzt ~25 funktionelle Bitterrezeptoren (TAS2R), die für die Wahrnehmung potenziell toxischer Substanzen in der Nahrung verantwortlich sind. Aufgrund der großen genetischen Variabilität der TAS2R-Gene könnte es eine Vielzahl funktionell unterschiedlicher TAS2R-Haplotypen geben, die zu Unterschieden der Bitterwahrnehmung führen. Dies konnte bereits in funktionellen Analysen und sensorischen Studien für einzelne Bitterrezeptoren gezeigt werden. In dieser Arbeit wurden die häufigsten Haplotypen aller 25 Bitterrezeptoren verschiedener Ethnien funktionell charakterisiert. Das Ziel war eine umfassende Aussage über die funktionelle Diversität der TAS2Rs, die die molekulare Grundlage für individuelle Bitterwahrnehmung bildet, treffen zu können. Fehlende Varianten wurden aus genomischer DNA kloniert oder durch gezielte Mutagenese bereits vorhandener TAS2R-Konstrukte generiert. Die funktionelle Analyse erfolgte mittels Expression der TAS2R-Haplotypen in HEK293TG16gust44 Zellen und anschließenden Calcium-Imaging-Experimenten mit zwei bekannten Agonisten. Die Haplotypen der fünf orphanen TAS2Rs wurden mit über hundert Bitterstoffen stimuliert. Durch die gelungene Deorphanisierung des TAS2R41 in dieser Arbeit, wurden für die 21 aktivierbaren TAS2Rs 36 funktionell-unterschiedliche Haplotypen identifiziert. Die tatsächliche funktionelle Vielfalt blieb jedoch deutlich hinter der genetischen Variabilität der TAS2Rs zurück. Neun Bitterrezeptoren wiesen funktionell homogene Haplotypen auf oder besaßen nur eine weltweit vorherrschende Variante. Funktionell heterogene Haplotypen wurden für zwölf TAS2Rs identifiziert. Inaktive Varianten der Rezeptoren TAS2R9, TAS2R38 und TAS2R46 sollten die Wahrnehmung von Bitterstoffen wie Ofloxacin, Cnicin, Hydrocortison, Limonin, Parthenolid oder Strychnin beeinflussen. Unterschiedlich sensitive Varianten, besonders der Rezeptoren TAS2R47 und TAS2R49, sollten für Agonisten wie Absinthin, Amarogentin oder Cromolyn ebenfalls zu phänotypischen Unterschieden führen. Wie für den TAS2R16 bereits gezeigt, traten Haplotypen des funktionell heterogenen TAS2R7 und TAS2R41 ethnien-spezifisch auf, was auf lokale Anpassung und verschiedene Phänotypen hinweisen könnte. Weiterführend muss nun eine Analyse der funktionell-variablen TAS2Rs in sensorischen Tests erfolgen, um ihre phänotypische Relevanz zu prüfen. Die Analyse der funktionsmodulierenden Aminosäurepositionen, z.Bsp. des TAS2R44, TAS2R47 oder TAS2R49, könnte weiterführend zum besseren Verständnis der Rezeptor-Ligand- und Rezeptor-G-Protein-Interaktion beitragen.
Interactive rendering techniques for focus+context visualization of 3D geovirtual environments
(2013)
This thesis introduces a collection of new real-time rendering techniques and applications for focus+context visualization of interactive 3D geovirtual environments such as virtual 3D city and landscape models. These environments are generally characterized by a large number of objects and are of high complexity with respect to geometry and textures. For these reasons, their interactive 3D rendering represents a major challenge. Their 3D depiction implies a number of weaknesses such as occlusions, cluttered image contents, and partial screen-space usage. To overcome these limitations and, thus, to facilitate the effective communication of geo-information, principles of focus+context visualization can be used for the design of real-time 3D rendering techniques for 3D geovirtual environments (see Figure). In general, detailed views of a 3D geovirtual environment are combined seamlessly with abstracted views of the context within a single image. To perform the real-time image synthesis required for interactive visualization, dedicated parallel processors (GPUs) for rasterization of computer graphics primitives are used. For this purpose, the design and implementation of appropriate data structures and rendering pipelines are necessary. The contribution of this work comprises the following five real-time rendering methods: • The rendering technique for 3D generalization lenses enables the combination of different 3D city geometries (e.g., generalized versions of a 3D city model) in a single image in real time. The method is based on a generalized and fragment-precise clipping approach, which uses a compressible, raster-based data structure. It enables the combination of detailed views in the focus area with the representation of abstracted variants in the context area. • The rendering technique for the interactive visualization of dynamic raster data in 3D geovirtual environments facilitates the rendering of 2D surface lenses. It enables a flexible combination of different raster layers (e.g., aerial images or videos) using projective texturing for decoupling image and geometry data. Thus, various overlapping and nested 2D surface lenses of different contents can be visualized interactively. • The interactive rendering technique for image-based deformation of 3D geovirtual environments enables the real-time image synthesis of non-planar projections, such as cylindrical and spherical projections, as well as multi-focal 3D fisheye-lenses and the combination of planar and non-planar projections. • The rendering technique for view-dependent multi-perspective views of 3D geovirtual environments, based on the application of global deformations to the 3D scene geometry, can be used for synthesizing interactive panorama maps to combine detailed views close to the camera (focus) with abstract views in the background (context). This approach reduces occlusions, increases the usage the available screen space, and reduces the overload of image contents. • The object-based and image-based rendering techniques for highlighting objects and focus areas inside and outside the view frustum facilitate preattentive perception. The concepts and implementations of interactive image synthesis for focus+context visualization and their selected applications enable a more effective communication of spatial information, and provide building blocks for design and development of new applications and systems in the field of 3D geovirtual environments.
Die wertschöpfenden Tätigkeiten in Unternehmen folgen definierten Geschäftsprozessen und werden entsprechend ausgeführt. Dabei werden wertvolle Daten über die Prozessausführung erzeugt. Die Menge und Qualität dieser Daten ist sehr stark von der Prozessausführungsumgebung abhängig, welche überwiegend manuell als auch vollautomatisiert sein kann. Die stetige Verbesserung von Prozessen ist einer der Hauptpfeiler des Business Process Managements, mit der Aufgabe die Wettbewerbsfähigkeit von Unternehmen zu sichern und zu steigern. Um Prozesse zu verbessern muss man diese analysieren und ist auf Daten der Prozessausführung angewiesen. Speziell bei manueller Prozessausführung sind die Daten nur selten direkt zur konkreten Prozessausführung verknüpft. In dieser Arbeit präsentieren wir einen Ansatz zur Verwendung und Anreicherung von Prozessausführungsdaten mit Kontextdaten – Daten die unabhängig zu den Prozessdaten existieren – und Wissen aus den dazugehörigen Prozessmodellen, um ein hochwertige Event- Datenbasis für Process Intelligence Anwendungen, wie zum Beispiel Prozessmonitoring, Prozessanalyse und Process Mining, sicherstellen zu können. Des Weiteren zeigen wir offene Fragestellungen und Herausforderungen auf, welche in Zukunft Gegenstand unserer Forschung sein werden.
Data integration aims to combine data of different sources and to provide users with a unified view on these data. This task is as challenging as valuable. In this thesis we propose algorithms for dependency discovery to provide necessary information for data integration. We focus on inclusion dependencies (INDs) in general and a special form named conditional inclusion dependencies (CINDs): (i) INDs enable the discovery of structure in a given schema. (ii) INDs and CINDs support the discovery of cross-references or links between schemas. An IND “A in B” simply states that all values of attribute A are included in the set of values of attribute B. We propose an algorithm that discovers all inclusion dependencies in a relational data source. The challenge of this task is the complexity of testing all attribute pairs and further of comparing all of each attribute pair's values. The complexity of existing approaches depends on the number of attribute pairs, while ours depends only on the number of attributes. Thus, our algorithm enables to profile entirely unknown data sources with large schemas by discovering all INDs. Further, we provide an approach to extract foreign keys from the identified INDs. We extend our IND discovery algorithm to also find three special types of INDs: (i) Composite INDs, such as “AB in CD”, (ii) approximate INDs that allow a certain amount of values of A to be not included in B, and (iii) prefix and suffix INDs that represent special cross-references between schemas. Conditional inclusion dependencies are inclusion dependencies with a limited scope defined by conditions over several attributes. Only the matching part of the instance must adhere the dependency. We generalize the definition of CINDs distinguishing covering and completeness conditions and define quality measures for conditions. We propose efficient algorithms that identify covering and completeness conditions conforming to given quality thresholds. The challenge for this task is twofold: (i) Which (and how many) attributes should be used for the conditions? (ii) Which attribute values should be chosen for the conditions? Previous approaches rely on pre-selected condition attributes or can only discover conditions applying to quality thresholds of 100%. Our approaches were motivated by two application domains: data integration in the life sciences and link discovery for linked open data. We show the efficiency and the benefits of our approaches for use cases in these domains.
In den größten Städten Russlands werden aktuell Entwicklungstendenzen sichtbar, welche die Frage nach einem Ende der postsozialistischen Transformation aufwerfen. Ein Beispiel für derartige – posttransformative – Entwicklungstendenzen bildet die Planung und Verwirklichung ikonischer Architekturprojekte. Diese sollen vor allem Innovations- und Wettbewerbsfähigkeit symbolisieren. Vor Ort sind sie aber insbesondere dann umstritten, wenn sie die überkommenen städtebaulichen Traditionen in Frage stellen. Besonders gut zeigt sich das beim Ochta-Zentrum, einem Geschäfts- und Kulturzentrum mit 400 m hoher Dominante, das nach dem Willen des Gazprom-Konzerns am Rande der historischen Innenstadt Sankt Petersburgs errichtet werden sollte. In der Hochphase der Diskussion beschäftigte das Projekt nicht nur die Stadtbevölkerung, sondern auch die Führungsriege der Russischen Föderation und die UNESCO. Die Analyse des Diskurses über das Ochta-Zentrum ermöglicht daher ebenso Erkenntnisse über Tendenzen der Stadtentwicklung Sankt Petersburgs wie über Strategien der russischen Innen- und Außenpolitik.
In dieser Dissertation erfolgt eine Analyse des Schutzes von Biodiversität durch Payments for Environmental Services (PES) und, insbesondere im empirischen Teil, innerhalb des Ansatzes Reducing Emissions from Deforestation and Forest Degradation plus (REDDplus). Die Anwendung von PES-Programmen zum Schutz von Biodiversität gewinnt im umweltpolitischen Bereich immer mehr an Bedeutung. Gleichzeitig ist die Umsetzung solcher Schutzprogramme jedoch mit erheblichen Transaktionskosten und damit der Gefahr von Ineffizienzen verbunden. Die Möglichkeit der Bündelung von Biodiversität mit einer weiteren Ökosystemleistung, hier der Speicherung von Kohlenstoffdioxid, wird hinsichtlich der Wirkungen auf die Schutzniveaus beider Ökosystemleistungen und der Veränderung der Produktionsweise des landwirtschaftlichen Sektors in einem monopsonistischen Modelansatz analysiert. Durch die formale Analyse zeigt sich, dass für einen effizienteren Schutz der beiden Ökosystemleistungen economies of scope bei den Transaktionskosten mit der Bündelung von PES-Programmen realisiert werden müssen. Ein Beispiel für die praktische Umsetzung von Payments for Environmental Services ist der REDDplus-Ansatz. Das Ziel ist die Reduzierung von Treibhausgasemissionen durch den Erhalt und die nachhaltige Bewirtschaftung von tropischen Wäldern, aber auch der Schutz von Biodiversität. Innerhalb des empirischen Teiles der Dissertation wird untersucht, inwiefern es durch die Verfolgung beider Ziele zur Realisierung von economies of scope bei den Transaktionskosten kommt. In die Analyse werden sechs Länder (Costa-Rica, Indonesien, Mexiko, Kambodscha, Peru und Vietnam) einbezogen. Die Analyse erfolgt auf der Grundlage von Szenarien, welche mit Hilfe der Readiness Proposals der Länder für den Zeitraum von 2008 bis 2030 erstellt wurden. Anhand der Ergebnisse kann gezeigt werden, dass es nicht automatisch durch die Zusammenlegung von PES-Programmen zu einer Realisierung von economies of scope kommt. Eine Bündelung solcher Programme ist daher nicht in allen Phasen ihrer Umsetzung ratsam.
The study of outcrop modeling is located at the interface between two fields of expertise, Sedimentology and Computing Geoscience, which respectively investigates and simulates geological heterogeneity observed in the sedimentary record. During the last past years, modeling tools and techniques were constantly improved. In parallel, the study of Phanerozoic carbonate deposits emphasized the common occurrence of a random facies distribution along single depositional domain. Although both fields of expertise are intrinsically linked during outcrop simulation, their respective advances have not been combined in literature to enhance carbonate modeling studies. The present study re-examines the modeling strategy adapted to the simulation of shallow-water carbonate systems, based on a close relationship between field sedimentology and modeling capabilities. In the present study, the evaluation of three commonly used algorithms Truncated Gaussian Simulation (TGSim), Sequential Indicator Simulation (SISim), and Indicator Kriging (IK), were performed for the first time using visual and quantitative comparisons on an ideally suited carbonate outcrop. The results show that the heterogeneity of carbonate rocks cannot be fully simulated using one single algorithm. The operating mode of each algorithm involves capabilities as well as drawbacks that are not capable to match all field observations carried out across the modeling area. Two end members in the spectrum of carbonate depositional settings, a low-angle Jurassic ramp (High Atlas, Morocco) and a Triassic isolated platform (Dolomites, Italy), were investigated to obtain a complete overview of the geological heterogeneity in shallow-water carbonate systems. Field sedimentology and statistical analysis performed on the type, morphology, distribution, and association of carbonate bodies and combined with palaeodepositional reconstructions, emphasize similar results. At the basin scale (x 1 km), facies association, composed of facies recording similar depositional conditions, displays linear and ordered transitions between depositional domains. Contrarily, at the bedding scale (x 0.1 km), individual lithofacies type shows a mosaic-like distribution consisting of an arrangement of spatially independent lithofacies bodies along the depositional profile. The increase of spatial disorder from the basin to bedding scale results from the influence of autocyclic factors on the transport and deposition of carbonate sediments. Scale-dependent types of carbonate heterogeneity are linked with the evaluation of algorithms in order to establish a modeling strategy that considers both the sedimentary characteristics of the outcrop and the modeling capabilities. A surface-based modeling approach was used to model depositional sequences. Facies associations were populated using TGSim to preserve ordered trends between depositional domains. At the lithofacies scale, a fully stochastic approach with SISim was applied to simulate a mosaic-like lithofacies distribution. This new workflow is designed to improve the simulation of carbonate rocks, based on the modeling of each scale of heterogeneity individually. Contrarily to simulation methods applied in literature, the present study considers that the use of one single simulation technique is unlikely to correctly model the natural patterns and variability of carbonate rocks. The implementation of different techniques customized for each level of the stratigraphic hierarchy provides the essential computing flexibility to model carbonate systems. Closer feedback between advances carried out in the field of Sedimentology and Computing Geoscience should be promoted during future outcrop simulations for the enhancement of 3-D geological models.
Inhalt: Katja Mönnich: Eine Freundschaft, die Jahrzehnte überdauerte! Ein unveröffentlichter Brief Alexander von Humboldts an seinen langjährigen Freund Johann Karl Freiesleben Detlev Doherr: Interconnectedness und digitale Texte Ursula Thiemer-Sachse: Steinpatrizen aus dem alten Kolumbien zur Vorbereitung des Gusses von Goldobjekten in verlorener Form - Alexander von Humboldts "Kalendersteine" der Muisca Birgit Schneider: Berglinien im Vergleich - Bemerkungen zu einem klimageografischen Diagramm Alexander von Humboldts Ingo Schwarz: Friedrich L. Brand - 1922 bis 2012 Eberhard Knobloch: "Es wäre mir unmöglich nur ein halbes Jahr so zu leben wie er": Encke, Humboldt und was wir schon immer über die neue Berliner Sternwarte wissen wollten
Diet is a major force influencing the intestinal microbiota. This is obvious from drastic changes in microbiota composition after a dietary alteration. Due to the complexity of the commensal microbiota and the high inter-individual variability, little is known about the bacterial response at the cellular level. The objective of this work was to identify mechanisms that enable gut bacteria to adapt to dietary factors. For this purpose, germ-free mice monoassociated with the commensal Escherichia coli K-12 strain MG1655 were fed three different diets over three weeks: a diet rich in starch, a diet rich in non-digestible lactose and a diet rich in casein. Two dimensional gel electrophoresis and electrospray tandem mass spectrometry were applied to identify differentially expressed proteins of E. coli recovered from small intestine and caecum of mice fed the lactose or casein diets in comparison with those of mice fed the starch diet. Selected differentially expressed bacterial proteins were characterised in vitro for their possible roles in bacterial adaptation to the various diets. Proteins belonging to the oxidative stress regulon oxyR such as alkyl hydroperoxide reductase subunit F (AhpF), DNA protection during starvation protein (Dps) and ferric uptake regulatory protein (Fur), which are required for E. coli’s oxidative stress response, were upregulated in E. coli of mice fed the lactose-rich diet. Reporter gene analysis revealed that not only oxidative stress but also carbohydrate-induced osmotic stress led to the OxyR-dependent expression of ahpCF and dps. Moreover, the growth of E. coli mutants lacking the ahpCF or oxyR genes was impaired in the presence of non-digestible sucrose. This indicates that some OxyR-dependent proteins are crucial for the adaptation of E. coli to osmotic stress conditions. In addition, the function of two so far poorly characterised E. coli proteins was analysed: 2 deoxy-D gluconate 3 dehydrogenase (KduD) was upregulated in intestinal E. coli of mice fed the lactose-rich diet and this enzyme and 5 keto 4 deoxyuronate isomerase (KduI) were downregulated on the casein-rich diet. Reporter gene analysis identified galacturonate and glucuronate as inducers of the kduD and kduI gene expression. Moreover, KduI was shown to facilitate the breakdown of these hexuronates, which are normally degraded by uronate isomerase (UxaC), altronate oxidoreductase (UxaB), altronate dehydratase (UxaA), mannonate oxidoreductase (UxuB) and mannonate dehydratase (UxuA), whose expression was repressed by osmotic stress. The growth of kduID-deficient E. coli on galacturonate or glucuronate was impaired in the presence of osmotic stress, suggesting KduI and KduD to compensate for the function of the regular hexuronate degrading enzymes under such conditions. This indicates a novel function of KduI and KduD in E. coli’s hexuronate metabolism. Promotion of the intracellular formation of hexuronates by lactose connects these in vitro observations with the induction of KduD on the lactose-rich diet. Taken together, this study demonstrates the crucial influence of osmotic stress on the gene expression of E. coli enzymes involved in stress response and metabolic processes. Therefore, the adaptation to diet-induced osmotic stress is a possible key factor for bacterial colonisation of the intestinal environment.
The evolution of most orogens typically records cogenetic shortening and extension. Pervasive normal faulting in an orogen, however, has been related to late syn- and post-collisional stages of mountain building with shortening focused along the peripheral sectors of the orogen. While extensional processes constitute an integral part of orogenic evolution, the spatiotemporal characteristics and the kinematic linkage of structures related to shortening and extension in the core regions of the orogen are often not well known. Related to the India-Eurasia collision, the Himalaya forms the southern margin of the Tibetan Plateau and constitutes the most prominent Cenozoic type example of a collisional orogen. While thrusting is presently observed along the foothills of the orogen, several generations of extensional structures have been detected in the internal, high-elevation regions, both oriented either parallel or perpendicular to the strike of the orogen. In the NW Indian Himalaya, earthquake focal mechanisms, seismites and ubiquitous normal faulting in Quaternary deposits, and regional GPS measurements reveal ongoing E-W extension. In contrast to other extensional structures observed in the Himalaya, this extension direction is neither parallel nor perpendicular to the NE-SW regional shortening direction. In this study, I took advantage of this obliquity between the trend of the orogen and structures related to E-W oriented extension in order to address the question of the driving forces of different extension directions. Thus, extension might be triggered triggered by processes within the Tibetan Plateau or originates from the curvature of the Himalayan orogen. In order to elaborate on this topic, I present new fault-kinematic data based on systematic measurements of approximately 2000 outcrop-scale brittle fault planes with displacements of up to several centimeters that cover a large area of the NW Indian Himalaya. This new data set together with field observations relevant for relative chronology allows me to distinguish six different deformation styles. One of the main results are that the overall strain pattern derived from this data reflects the regionally important contractional deformation pattern very well, but also reveals significant extensional deformation. In total, I was able to identify six deformation styles, most of which are temporally and spatially linked and represent protracted shortening, but also significant extensional directions. For example, this is the first data set where a succession of both, arc-normal and E-W extension have been documented in the Himalaya. My observations also furnish the basis for a detailed overview of the younger extensional deformation history in the NW Indian Himalaya. Field and remote-sensing based geomorphic analyses, and geochronologic 40Ar/39Ar data on synkinematic muscovites along normal faults help elucidate widespread E-W extension in the NW Indian Himalaya which must have started at approximately 14-16 Ma, if not earlier. In addition, I documented and mapped fault scarps in Quaternary sedimentary deposits using satellite imagery and field inspection. Furthermore, I made field observations of regional normal faults, compiled structures from geological maps and put them in a regional context. Finally, I documented seismites in lake sediments close to the currently most active normal fault in the study area in order to extend the (paleo) seismic record of this particular fault. Taken together, this data sets document that E-W extension is the dominant active deformation style in the internal parts of the orogen. In addition, the combined field, geomorphic and remote-sensing data sets prove that E-W extension occurs in a much more larger region toward the south and west than the seismicity data have suggested. In conclusion, the data presented here reveal the importance of extension in a region, which is still dominated by ongoing collision and shortening. The regional fault distribution and cross-cutting relationships suggest that extension parallel and perpendicular to the strike of the orogen are an integral part of the southward propagation of the active thrust front and the associated lateral growth of the Himalayan arc. In the light of a wide range of models proposed for extension in the Himalaya and the Tibetan plateau, I propose that E-W extension in the NW Indian Himalaya is transferred from the Tibetan Plateau due the inability of the Karakorum fault (KF) to adequately accommodate ongoing E-W extension on the Tibetan Plateau. Furthermore, in line with other observations from Tibet, the onset of E-W normal faulting in the NW Himalaya may also reflect the attainment of high topography in this region, which generated crustal stresses conducive to spatially extensive extension.
Die Moskauer Staatliche Juristische O. E. Kutafin Universität (Akademie) und die Juristische Fakultät der Universität Potsdam arbeiten seit 2007 mit hohem wissenschaftlichem Ertrag zusammen. Ihre gemeinsamen Anstrengungen um das Verständnis und die Entwicklung des Rechts in Russland und in Deutschland finden in den Wochen des Russischen Rechts ihren Ausdruck. In den Beiträgen spiegelt sich das wissenschaftliche Denken auf dem Gebiet der Rechtswissenschaft zweier Länder wider, deren Rechtsschulen seit jeher ein historisches Band verbindet. Ius est ars aequi et boni – Nach dem Wahren und Guten durch das Recht streben beide Partner. Den thematischen Schwerpunkt der 2. Woche des Russischen Rechts, Potsdam, 2012, bildeten – neben zivilrechtlichen Fragestellungen – das Zusammenwirken und der wechselseitige Einfluss von Staat und Kirche in Russland und Deutschland. Wo harsche Gegensätze zwischen Staat und Kirche das Bild prägen, wo die eine Seite die andere gar bekämpft, dominieren Unrecht und Willkür. Wo aber zwischen Staat und Kirche gegenseitiges Vertrauen und Wohlwollen herrschen, wo Konflikte rechtsstaatlich, mithin friedlich, ausgetragen werden, lässt sich das Wahre finden, und das Gute gedeiht. Diese Einsicht zu fördern und zu verbreiten, war ein Ziel der Konferenz.
Brandenburger Antike-Denkwerk : o tempora, o mores ; Relevanz und Relativierung von Wertbegriffen
(2013)
Im September 2008 fand der 4. Potsdamer Lateintag statt. Er war Bestandteil des auf drei Jahre angelegten Brandenburger Antike-Denkwerks (BrAnD), das von der Robert Bosch Stiftung gefördert wurde. Der Band versammelt die Vorträge des Lateintags von Frau Prof. Dr. Chr. Kunst und Herrn Prof. Dr. M. Janka sowie eine Auswahl der Berichte zu den Schulprojekten.
Famously, Einstein read off the geometry of spacetime from Maxwell's equations. Today, we take this geometry that serious that our fundamental theory of matter, the standard model of particle physics, is based on it. However, it seems that there is a gap in our understanding if it comes to the physics outside of the solar system. Independent surveys show that we need concepts like dark matter and dark energy to make our models fit with the observations. But these concepts do not fit in the standard model of particle physics. To overcome this problem, at least, we have to be open to matter fields with kinematics and dynamics beyond the standard model. But these matter fields might then very well correspond to different spacetime geometries. This is the basis of this thesis: it studies the underlying spacetime geometries and ventures into the quantization of those matter fields independently of any background geometry. In the first part of this thesis, conditions are identified that a general tensorial geometry must fulfill to serve as a viable spacetime structure. Kinematics of massless and massive point particles on such geometries are introduced and the physical implications are investigated. Additionally, field equations for massive matter fields are constructed like for example a modified Dirac equation. In the second part, a background independent formulation of quantum field theory, the general boundary formulation, is reviewed. The general boundary formulation is then applied to the Unruh effect as a testing ground and first attempts are made to quantize massive matter fields on tensorial spacetimes.
Diese Arbeit befasst sich mit der Synthese und der Charakterisierung von thermoresponsiven Polymeren und ihrer Immobilisierung auf festen Oberflächen als nanoskalige dünne Schichten. Dabei wurden thermoresponsive Polymere vom Typ der unteren kritischen Entmischungstemperatur (engl.: lower critical solution temperature, LCST) verwendet. Sie sind bei niedrigeren Temperaturen im Lösungsmittel gut und nach Erwärmen oberhalb einer bestimmten kritischen Temperatur nicht mehr löslich; d. h. sie weisen bei einer bestimmten Temperatur einen Phasenübergang auf. Als Basismaterial wurden verschiedene thermoresponsive und biokompatible Polymere basierend auf Diethylenglykolmethylethermethacrylat (MEO2MA) und Oligo(ethylenglykol)methylethermethacrylat (OEGMA475, Mn = 475 g/ mol) über frei radikalische Copolymerisation synthetisiert. Der thermoresponsive Phasenübergang der Copolymere wurde in wässriger Lösung und in gequollenen vernetzten dünnen Schichten beobachtet. Außerdem wurde untersucht, inwiefern eine selektive Proteinbindung an geeignete funktionalisierte Copolymere die Phasenübergangstemperatur beeinflusst. Die thermoresponsiven Copolymere wurden über photovernetzbare Gruppen auf festen Oberflächen immobilisiert. Die nötigen lichtempfindlichen Vernetzereinheiten wurden mittels des polymerisierbaren Benzophenonderivates 2 (4 Benzoylphenoxy)ethylmethacrylat (BPEM) in das Copolymer integriert. Dünne Filme der Copolymere mit ca. 100 nm Schichtdicke wurden über Rotationsbeschichtung auf Siliziumwafer aufgeschleudert und anschließend durch Bestrahlung mit UV Licht vernetzt und auf der Oberfläche immobilisiert. Die Filme sind stabiler je größer der Vernetzeranteil und je größer die Molmasse der Copolymere ist. Bei einem Waschprozess nach der Vernetzung wird beispielsweise aus einem Film mit moderater Molmasse und geringem Vernetzeranteil mehr unvernetztes Copolymer ausgewaschen als bei einem höhermolekularen Copolymer mit hohem Vernetzeranteil. Die Quellbarkeit der Polymerschichten wurde mit Ellipsometrie untersucht. Sie ist größer je geringer der Vernetzeranteil in den Copolymeren ist. Schichten aus thermoresponsiven OEG Copolymeren zeigen einen Volumenphasenübergang vom Typ der LCST. Der thermoresponsive Kollaps der Schichten ist komplett reversibel, die Kollapstemperatur kann über die Zusammensetzung der Copolymere eingestellt werden. Für einen Vergleich dieser Eigenschaften mit dem gut charakterisierten und derzeit wohl am häufigsten untersuchten thermoresponsiven Polymer Poly(N-isopropylacrylamid) (PNIPAM) wurden zusätzlich photovernetzte Schichten aus PNIPAM hergestellt und ebenfalls ellipsometrisch vermessen. Im Vergleich zu PNIPAM verläuft der Phasenübergang der Schichten aus den Copolymeren mit Oligo(ethylenglykol)-seitenketten (OEG Copolymere) über einen größeren Temperaturbereich. Mit Licht einer Wellenlänge > 300 nm wurden die photosensitiven Benzophenongruppen selektiv angeregt. Bei der Verwendung kleinerer Wellenlängen vernetzten die Copolymerschichten auch ohne die Anwesenheit der lichtempfindlichen Benzophenongruppen. Dieser Effekt ließ sich zur kontrollierten Immobilisierung und Vernetzung der OEG Copolymere einsetzen. Als weitere Methode zur Immobilisierung der Copolymere wurde die Anbindung über Amidbindungen untersucht. Dazu wurden OEG Copolymere mit dem carboxylgruppenhaltigen 2 Succinyloxyethylmethacrylat (MES) auf mit 3 Aminopropyldimethylethoxysilan (APDMSi) silanisierte Siliziumwafer rotationsbeschichtet, und mit dem oligomeren α, ω Diamin Jeffamin® ED 900 vernetzt. Die Vernetzungsreaktion erfolgte ohne weitere Zusätze durch Erhitzen der Proben. Die Hydrogelschichten waren anschließend stabil und zeigten neben thermoresponsivem auch pH responsives Verhalten. Um zu untersuchen, ob die Phasenübergangstemperatur durch eine Proteinbindung beeinflusst werden kann, wurde ein polymerisierbares Biotinderivat 2 Biotinyl-aminoethylmethacrylat (BAEMA) in das thermoresponsive Copolymer eingebaut. Der Einfluss des biotinbindenen Proteins Avidin auf das thermoresponsive Verhalten des Copolymers in Lösung wurde untersucht. Die spezifische Bindung von Avidin an das biotinylierte Copolymer verschob die Übergangstemperatur deutlich zu höheren Temperaturen. Kontrollversuche zeigten, dass dieses Verhalten auf eine selektive Proteinbindung zurückzuführen ist. Thermoresponsive OEG Copolymere mit photovernetzbaren Gruppen aus BPEM und Biotingruppen aus BAEMA wurden über Rotationsbeschichtung auf Gold- und auf Siliziumoberflächen aufgetragen und durch UV Strahlung vernetzt. Die spezifische Bindung von Avidin an die Copolymerschicht wurde mit Oberflächenplasmonenresonanz und Ellipsometrie untersucht. Die Bindungskapazität der Schichten war umso größer, je kleiner der Vernetzeranteil, d. h. je größer die Maschenweite des Netzwerkes war. Die Quellbarkeit der Schichten wurde durch die Avidinbindung erhöht. Bei hochgequollenen Systemen verursachte eine Mehrfachbindung des tetravalenten Avidins allerdings eine zusätzliche Quervernetzung des Polymernetzwerkes. Dieser Effekt wirkt der erhöhten Quellbarkeit durch die Avidinbindung entgegen und lässt die Polymernetzwerke schrumpfen.
Permafrost-affected ecosystems including peat wetlands are among the most obvious regions in which current microbial controls on organic matter decomposition are likely to change as a result of global warming. Wet tundra ecosystems in particular are ideal sites for increased methane production because of the waterlogged, anoxic conditions that prevail in seasonally increasing thawed layers. The following doctoral research project focused on investigating the abundance and distribution of the methane-cycling microbial communities in four different polygons on Herschel Island and the Yukon Coast. Despite the relevance of the Canadian Western Arctic in the global methane budget, the permafrost microbial communities there have thus far remained insufficiently characterized. Through the study of methanogenic and methanotrophic microbial communities involved in the decomposition of permafrost organic matter and their potential reaction to rising environmental temperatures, the overarching goal of the ensuing thesis is to fill the current gap in understanding the fate of the organic carbon currently stored in Artic environments and its implications regarding the methane cycle in permafrost environments. To attain this goal, a multiproxy approach including community fingerprinting analysis, cloning, quantitative PCR and next generation sequencing was used to describe the bacterial and archaeal community present in the active layer of four polygons and to scrutinize the diversity and distribution of methane-cycling microorganisms at different depths. These methods were combined with soil properties analyses in order to identify the main physico-chemical variables shaping these communities. In addition a climate warming simulation experiment was carried-out on intact active layer cores retrieved from Herschel Island in order to investigate the changes in the methane-cycling communities associated with an increase in soil temperature and to help better predict future methane-fluxes from polygonal wet tundra environments in the context of climate change. Results showed that the microbial community found in the water-saturated and carbon-rich polygons on Herschel Island and the Yukon Coast was diverse and showed a similar distribution with depth in all four polygons sampled. Specifically, the methanogenic community identified resembled the communities found in other similar Arctic study sites and showed comparable potential methane production rates, whereas the methane oxidizing bacterial community differed from what has been found so far, being dominated by type-II rather than type-I methanotrophs. After being subjected to strong increases in soil temperature, the active-layer microbial community demonstrated the ability to quickly adapt and as a result shifts in community composition could be observed. These results contribute to the understanding of carbon dynamics in Arctic permafrost regions and allow an assessment of the potential impact of climate change on methane-cycling microbial communities. This thesis constitutes the first in-depth study of methane-cycling communities in the Canadian Western Arctic, striving to advance our understanding of these communities in degrading permafrost environments by establishing an important new observatory in the Circum-Arctic.
Aus dem Inhalt: - Die Umsetzung der Europäischen Menschenrechtskonvention in der deutschen Rechtsordnung - Ein neues Mind-set der Europäischen Grenzschutzagentur? Zur Internalisierung menschenrechtlicher Vorgaben durch Frontex - Menschenwürde und Freiheitsentzug – Die Tätigkeit der Nationalen Stelle zur Verhütung von Folter
Die Dissertation beschreibt die Herstellung von ringförmigen Verbindungen (Naphthalenophanen) mit Hilfe der Dehydro-Diels-Alder-Reaktion, wobei immer Enantiomerenpaare auftreten. Es wird der diastereoselektive Aufbau von Naphthalenophanen und der enantiomeren reine Aufbau von Biarylen untersucht. Desweiteren werden die physikalischen Eigenschaften der erhaltenen Verbindungen, wie die Phosphoreszenz, Trennbarkeit der entstehenden Enantiomere und die Ringspannung beschrieben.
Developing rich Web applications can be a complex job - especially when it comes to mobile device support. Web-based environments such as Lively Webwerkstatt can help developers implement such applications by making the development process more direct and interactive. Further the process of developing software is collaborative which creates the need that the development environment offers collaboration facilities. This report describes extensions of the webbased development environment Lively Webwerkstatt such that it can be used in a mobile environment. The extensions are collaboration mechanisms, user interface adaptations but as well event processing and performance measuring on mobile devices.
Given a large set of records in a database and a query record, similarity search aims to find all records sufficiently similar to the query record. To solve this problem, two main aspects need to be considered: First, to perform effective search, the set of relevant records is defined using a similarity measure. Second, an efficient access method is to be found that performs only few database accesses and comparisons using the similarity measure. This thesis solves both aspects with an emphasis on the latter. In the first part of this thesis, a frequency-aware similarity measure is introduced. Compared record pairs are partitioned according to frequencies of attribute values. For each partition, a different similarity measure is created: machine learning techniques combine a set of base similarity measures into an overall similarity measure. After that, a similarity index for string attributes is proposed, the State Set Index (SSI), which is based on a trie (prefix tree) that is interpreted as a nondeterministic finite automaton. For processing range queries, the notion of query plans is introduced in this thesis to describe which similarity indexes to access and which thresholds to apply. The query result should be as complete as possible under some cost threshold. Two query planning variants are introduced: (1) Static planning selects a plan at compile time that is used for all queries. (2) Query-specific planning selects a different plan for each query. For answering top-k queries, the Bulk Sorted Access Algorithm (BSA) is introduced, which retrieves large chunks of records from the similarity indexes using fixed thresholds, and which focuses its efforts on records that are ranked high in more than one attribute and thus promising candidates. The described components form a complete similarity search system. Based on prototypical implementations, this thesis shows comparative evaluation results for all proposed approaches on different real-world data sets, one of which is a large person data set from a German credit rating agency.
In diesem Band „Essays zur Didaktik der Geographie“ werden in 8 Beiträgen ausgewählte Methoden für den Geographieunterricht behandelt. Praxiserfahrenen Geographiedidaktiker(inne)n und Geographielehrer(inne)n haben die Themen Croquis/Chorèmes und Schemata, Einstiege, Planspiele, Rollenspiele, Scaffolding, Schulbücher, Spiele und Umweltbildung in pointierter Form aufbereitet. Die Inhalte dieses Buches richten sich an Studierende, Referendarinnen und Referendare sowie Lehrer(inn)en, die sich kompakt über einzelne Themen oder Stichworte informieren wollen. Die acht Beiträge ergänzen die 65 Beiträge im „Metzler Handbuch 2.0 Geographieunterricht“. Sie sind durch wechselseitige Querverweise systematisch miteinander verbunden.
Wohin nach der 10. Klasse?
(2013)
Im Lebenslauf ist die Berufswahl eine zentrale Entwicklungsaufgabe. Durch die Institutionalisierung des Lebenslaufes in modernen Gesellschaften wird der Prozess auch institutionell begleitet. Schule organisiert in Kooperation mit der Bundesagentur für Arbeit dazu berufsorientierende Angebote, die u.a. die Entwicklung der Berufswahlreife unterstützen sollen. So werden neben den Eltern auch die Schule und Berufsberatung zu zentralen Vermittlern (Gatekeepern) beim Übergang von der Schule in die Ausbildung. Im Rahmen der Analyse des Berufswahlprozesses ist es wichtig, die Interaktion zwischen „Umwelt und Person“ zu betrachten: Wie gelingt es Jugendlichen, diese Entwicklungsaufgabe anhand personaler und sozialer Ressourcen, sowie im Rahmen gesellschaftlicher Strukturen, zu bewältigen? Diese Fragestellung ist grundsätzlich nicht neu, gewinnt jedoch unter den aktuellen gesellschaftlichen und ökonomischen Übergangsbedingungen eine große Bedeutung. Schulen haben in den letzten Jahren verstärkt begonnen, ihre Berufsorientierung systematisch zu organisieren und weiterzuentwickeln. Die Fülle der neu entwickelten Konzepte und Programme zur Verbesserung der Berufsorientierung steht jedoch in keinem Verhältnis zum Stand der empirischen Forschung. Daher ist die vorliegende Forschungsarbeit von der zentralen Zielstellung geleitet, die empirische Evidenz zur Wirkung schulischer Berufsorientierungsangebote zu erweitern. Im Mittelpunkt der Studie steht die Fragestellung, wie sich der schulische Berufsorientierungsprozess für Schülerinnen und Schüler aller Bildungsgänge für einen verbesserten Übergang in weiterführende Bildungs- und Ausbildungssysteme optimieren lässt. Von Interesse ist dabei, ob und inwieweit schulische Angebote die Entwicklung der Berufswahlreife der Schülerinnen und Schüler beeinflussen, welche Angebote als besonders unterstützend oder weniger sinnvoll beurteilt werden müssen. Diese Fragestellungen wurden auf Basis von schriftlichen Befragungen im Zeitraum von 2008 bis 2010 von Oberschülerinnen und Oberschülern im Landes Brandenburg bearbeitet. Anhand von Querschnitts- und Panelanalysen werden Aussagen über die Wahrnehmung und den Einfluss der verschiedenen schulischen Angebote sowohl für einzelne Jahrgangsstufen als auch im Vergleich zwischen den Jahrgangsstufen getroffen.
Soziale Netzwerkanalyse für HumangeographInnen : Einführung in UCINET und NetDraw in fünf Schritten
(2013)
In den Sozialwissenschaften profiliert sich derzeit eine disziplinübergreifende Netzwerkforschung, die sich durch eine relationale Theorieperspektive auszeichnet. Die empirische Forschung greift dabei vermehrt auf das Methodenrepertoire der Social Network Analysis (SNA) zurück. Für die Humangeographie kann der soziologische Blick der Netzwerkforschung auf unterschiedliche Weise um „Raumbezüge“ ergänzt und in verschiedenen Forschungsfeldern zur Anwendung gebracht werden. Trotz ihres vielfältigen Potenzials nimmt die SNA in der geographischen Methodenausbildung in Deutschland bisher einen eher untergeordneten Stellenwert ein. Dieses Buch richtet sich an Studentinnen und Studenten, die sich für (humangeographische) empirische Netzwerkforschung interessieren und einen einfachen Einstieg suchen. Es führt verständlich in zentrale Fachbegriffe der SNA und die grundlegenden Funktionen der Analyse-Software UCINet ein. Von der Dateneingabe und -aufbereitung, über die Visualisierung bis hin zu netzwerkanalytischen Berechnungen werden die ersten Schritte vorgestellt und nachvollziehbar erläutert.
Die Kartierung planetarer Körper stellt ein wesentliches Mittel der raumfahrtgestützten Exploration der Himmelskörper dar. Aktuell kommen zur Erstellung der planetaren Karten Geo-Informationssysteme (GIS) zum Einsatz. Ziel dieser Arbeit ist es, eine GIS-orientierte Prozesskette (Planetary Mapping System (PMS)) zu konzipieren, mit dem Schwerpunkt geologische und geomorphologische Karten planetarer Oberflächen einheitlich durchführen zu können und nachhaltig zugänglich zu machen.
Was veranlasste die an „Belcantare Brandenburg“ beteiligten Bildungsinstitutionen, dieses Projekt zu verwirklichen? Sind ländliche und städtische Singprojekte gleichermaßen zu planen? Wie wirksam war und ist „Belcantare Brandenburg“? Diesen u. a. Fragen widmet sich die repräsentative Dokumentation, die im Rahmen der wissenschaftlichen Begleitung des Projektes durch den Lehrstuhl Musikpädagogik und Musikdidaktik der Universität Potsdam entstanden ist. Vorderstes Anliegen war es hierbei, die erarbeiteten Fragestellungen aus unterschiedlichen Forschungsperspektiven zu beantworten. An dieser Forschungsarbeit wirkten Studierende mit und reflektierten in ihren wissenschaftlichen Qualifikationsarbeiten im Projekt erschlossene theoretische und praktische Erfahrungen zum Singen in der Grundschule. „Belcantare Brandenburg“ ist ein Singprojekt zur Fortbildung für Grundschullehrerinnen und Grundschullehrer, das mit freundlicher Unterstützung der Ostdeutschen Sparkassenstiftung und der Sparkasse Uckermark über einen Zeitraum von zwei Jahren die Qualität der Singarbeit von Lehrkräften aus der Uckermark zielgerichtet weiterentwickelte.
HPI Future SOC Lab
(2013)
Together with industrial partners Hasso-Plattner-Institut (HPI) is currently establishing a “HPI Future SOC Lab,” which will provide a complete infrastructure for research on on-demand systems. The lab utilizes the latest, multi/many-core hardware and its practical implementation and testing as well as further development. The necessary components for such a highly ambitious project are provided by renowned companies: Fujitsu and Hewlett Packard provide their latest 4 and 8-way servers with 1-2 TB RAM, SAP will make available its latest Business byDesign (ByD) system in its most complete version. EMC² provides high performance storage systems and VMware offers virtualization solutions. The lab will operate on the basis of real data from large enterprises. The HPI Future SOC Lab, which will be open for use by interested researchers also from other universities, will provide an opportunity to study real-life complex systems and follow new ideas all the way to their practical implementation and testing. This technical report presents results of research projects executed in 2011. Selected projects have presented their results on June 15th and October 26th 2011 at the Future SOC Lab Day events.
Für die vorliegende Studie »Qualitative Untersuchung zur Akzeptanz des neuen Personalausweises und Erarbeitung von Vorschlägen zur Verbesserung der Usability der Software AusweisApp« arbeitete ein Innovationsteam mit Hilfe der Design Thinking Methode an der Aufgabenstellung »Wie können wir die AusweisApp für Nutzer intuitiv und verständlich gestalten?« Zunächst wurde die Akzeptanz des neuen Personalausweises getestet. Bürger wurden zu ihrem Wissensstand und ihren Erwartungen hinsichtlich des neuen Personalausweises befragt, darüber hinaus zur generellen Nutzung des neuen Personalausweises, der Nutzung der Online-Ausweisfunktion sowie der Usability der AusweisApp. Weiterhin wurden Nutzer bei der Verwendung der aktuellen AusweisApp beobachtet und anschließend befragt. Dies erlaubte einen tiefen Einblick in ihre Bedürfnisse. Die Ergebnisse aus der qualitativen Untersuchung wurden verwendet, um Verbesserungsvorschläge für die AusweisApp zu entwickeln, die den Bedürfnissen der Bürger entsprechen. Die Vorschläge zur Optimierung der AusweisApp wurden prototypisch umgesetzt und mit potentiellen Nutzern getestet. Die Tests haben gezeigt, dass die entwickelten Neuerungen den Bürgern den Zugang zur Nutzung der Online-Ausweisfunktion deutlich vereinfachen. Im Ergebnis konnte festgestellt werden, dass der Akzeptanzgrad des neuen Personalausweises stark divergiert. Die Einstellung der Befragten reichte von Skepsis bis hin zu Befürwortung. Der neue Personalausweis ist ein Thema, das den Bürger polarisiert. Im Rahmen der Nutzertests konnten zahlreiche Verbesserungspotenziale des bestehenden Service Designs sowohl rund um den neuen Personalausweis, als auch im Zusammenhang mit der verwendeten Software aufgedeckt werden. Während der Nutzertests, die sich an die Ideen- und Prototypenphase anschlossen, konnte das Innovtionsteam seine Vorschläge iterieren und auch verifizieren. Die ausgearbeiteten Vorschläge beziehen sich auf die AusweisApp. Die neuen Funktionen umfassen im Wesentlichen: · den direkten Zugang zu den Diensteanbietern, · umfangreiche Hilfestellungen (Tooltips, FAQ, Wizard, Video), · eine Verlaufsfunktion, · einen Beispieldienst, der die Online-Ausweisfunktion erfahrbar macht. Insbesondere gilt es, den Nutzern mit der neuen Version der AusweisApp Anwendungsfelder für ihren neuen Personalausweis und einen Mehrwert zu bieten. Die Ausarbeitung von weiteren Funktionen der AusweisApp kann dazu beitragen, dass der neue Personalausweis sein volles Potenzial entfalten kann.
Scalable compatibility for embedded real-time components via language progressive timed automata
(2013)
Die korrekte Komposition individuell entwickelter Komponenten von eingebetteten Realzeitsystemen ist eine Herausforderung, da neben funktionalen Eigenschaften auch nicht funktionale Eigenschaften berücksichtigt werden müssen. Ein Beispiel hierfür ist die Kompatibilität von Realzeiteigenschaften, welche eine entscheidende Rolle in eingebetteten Systemen spielen. Heutzutage wird die Kompatibilität derartiger Eigenschaften in einer aufwändigen Integrations- und Konfigurationstests am Ende des Entwicklungsprozesses geprüft, wobei diese Tests im schlechtesten Fall fehlschlagen. Aus diesem Grund wurde eine Zahl an formalen Verfahren Entwickelt, welche eine frühzeitige Analyse von Realzeiteigenschaften von Komponenten erlauben, sodass Inkompatibilitäten von Realzeiteigenschaften in späteren Phasen ausgeschlossen werden können. Existierenden Verfahren verlangen jedoch, dass eine Reihe von Bedingungen erfüllt sein muss, welche von realen Systemen nur schwer zu erfüllen sind, oder aber, die verwendeten Analyseverfahren skalieren nicht für größere Systeme. In dieser Arbeit wird ein Ansatz vorgestellt, welcher auf dem formalen Modell des Timed Automaton basiert und der keine Bedingungen verlangt, die von einem realen System nur schwer erfüllt werden können. Der in dieser Arbeit vorgestellte Ansatz enthält ein Framework, welches eine modulare Analyse erlaubt, bei der ausschließlich miteinender kommunizierende Komponenten paarweise überprüft werden müssen. Somit wird eine skalierbare Analyse von Realzeiteigenschaften ermöglicht, die keine Bedingungen verlangt, welche nur bedingt von realen Systemen erfüllt werden können.
Starke Kommunen in leistungsfähigen Ländern : der Beitrag von Funktional- und Territorialreformen
(2013)
Der demografische Wandel und die Budgetkrise stellen Leistungsfähigkeit, Strukturen und territoriale Größe kommunaler Verwaltungseinheiten sowohl auf Gemeinde- als auch auf Kreisebene erneut auf den Prüfstand. In vielen deutschen Bundesländern werden daher Gebiets- und Funktionalreformen unterschiedlicher Form diskutiert, vorbereitet oder durchgeführt. Zukunftsfähige bürgerfreundliche, effiziente und kostengünstige kommunale Strukturen erfordern eine politisch durchdachte vertikale und horizontale Aufgabenverteilung zwischen Land, Landkreisen und Gemeinden. Darauf aufbauend müssen die zur Verfügung stehenden Personal- und Finanzmittel auf die verschiedenen kommunalen Ebenen verteilt werden. Gebietsreformen erfordern somit immer auch Funktionalreformen. Entscheidungen über den künftigen Umfang der Daseinsvorsorge müssen gefällt werden. Die Alternativen zwischen verbesserter interkommunaler Kooperation und Fusion sind auf Gemeinde- und Kreisebene ebenso abzuwägen wie die Konsequenzen der verschiedenen Modelle für die Verteilung der Finanzmittel an die und zwischen den Gebietskörperschaften. Die Stärkung der lokalen Demokratie und der bürgerschaftlichen Teilhabe spielen bei der Zukunftssicherung der Kommunen eine immer größere Rolle. Insbesondere bei kommunalen Gebietsreformen sollten diese Fragen stärker Berücksichtigung finden. Die 18. Fachtagung des Kommunalwissenschaftlichen Institutes (KWI) diskutiert interdisziplinär Fragen der Leistungsfähigkeit kommunaler Strukturen. Dabei werden rechts-, finanz-, politik- und verwaltungswissenschaftliche Aspekte einbezogen.
The papers collected in this volume were presented at a Graduate/Postgraduate Student Conference with the title Information Structure: Empirical Perspectives on Theory held on December 2 and 3, 2011 at Potsdam-Griebnitzsee. The main goal of the conference was to connect young researchers working on information structure (IS) related topics and to discuss various IS categories such as givenness, focus, topic, and contrast. The aim of the conference was to find at least partial answers to the following questions: What IS categories are necessary? Are they gradient/continuous? How can one deal with optionality or redundancy? How are IS categories encoded grammatically? How do different empirical methods contribute to distinguishing between the influence of different IS categories on language comprehension and production? To answer these questions, a range of languages (Avatime, Chinese, German, Ishkashimi, Modern Greek, Old Saxon, Russian, Russian Sign Language and Sign Language of the Netherlands) and a range of phenomena from phonology, semantics, and syntax were investigated. The presented theories and data were based on different kinds of linguistic evidence: syntactic and semantic fieldwork, corpus studies, and phonological experiments. The six papers presented in this volume discuss a variety of IS categories, such as emphasis and contrast (Stavropoulous, Titov), association with focus and topics (van Putten, Karvovskaya), and givenness and backgrounding (Kimmelmann, Röhr).
Der Einfluss von Bildung gewinnt gesellschaftlich und politisch an Bedeutung. Auch im wissenschaftlichen Bereich zeigt sich dies über eine vielseitige Diskussion zum Einfluss von Bildung auf das Einkommen. In dieser Arbeit werden nationale und regionale Disparitäten in der monetären Wertschätzung von allgemeinem Humankapital aufgedeckt und diskutiert. Dafür werden verschiedene Verfahren diskutiert und basierend darauf Intervalle für die mittleren Bildungsrenditen bestimmt. Im ersten Abschnitt wird die Thematik theoretisch über zwei verschiedene Modellansätze fundiert und kritisch diskutiert. Anschließend folgt die Darstellung des aktuellen empirischen Forschungsbestands. Der Hauptteil der Arbeit beginnt mit der Darstellung des verwendeten Datensatzes und seiner kritischen Repräsentativitätsprüfung. Eine nähere Variablenbeschreibung mit deskriptiver Analyse dient zur Erklärung der verwendeten Größen. Darauffolgend werden bestehende Verfahren zur Schätzung von Bildungsrenditen diskutiert. Unter ausschließlicher Berücksichtigung der Erwerbstätigen zeigt das 3SLS-Verfahren die besten Eigenschaften. Bezieht man jedoch alle Erwerbspersonen in die Analyse mit ein, so erweist sich das Heckman-Verfahren als sehr geeignet. Die Analyse - zunächst auf nationaler Ebene - bestätigt weitestgehend die bestehenden Erkenntnisse der Literatur. Eine Separierung des Datensatzes auf verschiedene Alterscluster, Voll- und Teilerwerbstätige sowie Erwerbstätige in der Privatwirtschaft und im öffentlichen Dienst zeigen keine signifikanten Unterschiede in der Höhe der gezahlten durchschnittlichen Bildungsrenditen. Anders verhält es sich bei der regionalen Analyse. Zunächst werden Ost- und Westdeutschland separat betrachtet. Für diese erste Analyse lassen sich über 95 %-Konfidenzintervalle deutliche Unterschiede in der Höhe der Bildungsrenditen ermitteln. Aufbauend auf diese Ergebnisse wird die Analyse vertieft. Eine Separierung auf Bundesländerebene und ein weiterer Vergleich der Konfidenzintervalle folgen. Zur besseren statistischen Vergleichbarkeit der Ergebnisse wird neben dem 3SLS-Verfahren, angewendet auf die separierten Datensätze, auch ein Modell ohne die Notwendigkeit der Separierung gewählt. Hierbei ist die Variation der Regionen über Interaktionsterme berücksichtigt. Dieses Regressionsmodell wird auf das OLS- und das Heckman-Verfahren angewendet. Der Vorteil hierbei ist, dass die Koeffizienten auf Gleichheit getestet werden können. Dabei kristallisieren sich deutlich unterschiedliche Bildungsrenditen für Mecklenburg-Vorpommern, aber auch für Sachsen-Anhalt und Thüringen im Vergleich zu den restlichen Bundesländern Deutschlands heraus. Diese Länder zeichnen sich durch eine besonders hohe jährliche Verzinsung von allgemeinem Humankapital aus. Es folgt eine Diskussion über mögliche Ursachen für die regional verschiedenen Bildungsrenditen. Dabei zeigt sich, dass in den Bundesländern mit hoher Rendite das mittlere Einkommensniveau und auch das durchschnittliche Preisniveau tendenziell geringer sind. Weiterhin wird deutlich, dass bei höheren relativen Abweichungen der durchschnittlichen Einkommen höhere Renditen zu verzeichnen sind. Auch die Wanderungsbewegungen je nach Qualifikation unterscheiden sich. Unter zusätzlicher Berücksichtigung der Arbeitslosenquoten zeigt sich in den Ländern mit hoher Rendite eine tendenziell höhere Arbeitslosigkeit. Im zusammenfassenden Fazit der Arbeit werden abschließend die Erkenntnisse gewürdigt. Dabei ist zu bemerken, dass der Beitrag einen Start in die bundesländerweite Analyse liefert, die eine Fortführung auf beispielsweise eine mehrperiodische Betrachtung anregt.
EMOTIKON-Studie benannte als Kurzform des Forschungsvorhabens zur “Interdisziplinäre(n) Evaluierung der motorischen Leistungsfähigkeit und des Gesundheitszustandes im Kontext sportlicher Eignung und Effizienz des Sportunterrichtes von GrundschülerInnen im Land Brandenburg“. Die Längsschnittstudie wurde durch den Arbeitsbereich Trainings- und Bewegungswissenschaft der Universität Potsdam, unter der Leitung von Prof. Dr. Ditmar Wick, an 29 Grundschulen der Schulämter Brandenburg/ Havel und Cottbus von 2006 bis 2010 realisiert. Mit der vorliegenden Publikation werden die Ergebnisse und deren Zusammenhänge zur Entwicklung der motorischen Leistungsfähigkeit, des Körperbaus, der Bewegungsaktivität und der Einschätzung des Sportunterrichts mit einführenden theoretischen Grundlagen und dem aktuellen nationalen Forschungsstand referiert. Die Autoren sind überzeugt, dass dieser Abschlussbericht nicht nur das Interesse der im aktuellen Forschungsprojekt „EMOTIKON-Grundschulsport 2010-2014“ involvierten Brandenburger Grundschulsportlehrer wecken wird, sondern auch den politischen Entscheidungsträgern (Schulämter, Ministerien) eine Entscheidungshilfe bieten als auch den Diskussionsprozess der im Themengebiet forschenden Wissenschaftler anregen kann. Diese Überzeugung gründet sich insbesondere auf die Ergebnisse zur körperlich-sportlichen Bewegungsaktivität der Dritt- bis Sechstklässler sowie der Analyse motorischer Leistung in Abhängigkeit von Geschlecht und soziodemografischen Gegebenheiten.
Inhalt: 1. Fragestellungen und State of the Art 1.1 Forschungsfragen 1.2 Über den Stand der Forschung 1.3 Opposition in autoritären Regimen – klassisch und aktuell 2. Analyseschritte 2.1 Opposition in politischen Systemen 2.2 Handlungsdimensionen der Opposition 2.3 Idealtypen der Opposition in autoritären Regimen 2.4 Fünf forschungsleitende Hypothesen 3. Literaturverzeichnis
Welche Rolle hat die politische Opposition in autoritären Regimen? Das vorliegende Arbeitspapier formuliert generelle Überlegungen zum Phänomen des Autoritarismus im 21. Jahrhundert und entwickelt ein Konzept, mit dem regionenübergreifend das politische Agieren der Opposition in autoritären Regimen analysiert werden kann.
Within a research project about future sustainable water management options in the Elbe River basin, quasi-natural discharge scenarios had to be provided. The semi-distributed eco-hydrological model SWIM was utilised for this task. According to scenario simulations driven by the stochastical climate model STAR, the region would get distinctly drier. However, this thesis focuses on the challenge of meeting the requirement of high model fidelity even for smaller sub-basins. Usually, the quality of the simulations is lower at inner points than at the outlet. Four research paper chapters and the discussion chapter deal with the reasons for local model deviations and the problem of optimal spatial calibration. Besides other assessments, the Markov Chain Monte Carlo method is applied to show whether evapotranspiration or precipitation should be corrected to minimise runoff deviations, principal component analysis is used in an unusual way to evaluate local precipitation alterations by land cover changes, and remotely sensed surface temperatures allow for an independent view on the evapotranspiration landscape. The overall insight is that spatially explicit hydrological modelling of such a large river basin requires a lot of local knowledge. It probably needs more time to obtain such knowledge as is usually provided for hydrological modelling studies.
Modifizierung von Silikonelastomeren mit organischen Dipolen für Dielektrische Elastomer Aktuatoren
(2013)
Ein Dielektrischer Elastomer Aktuator (DEA) ist ein dehnbarer Kondensator, der aus einem Elastomerfilm besteht, der sich zwischen zwei flexiblen Elektroden befindet. Bei Anlegen einer elektrischen Spannung, ziehen sich die Elektroden aufgrund elektrostatischer Wechselwirkungen an, wodurch das Elastomer in z-Richtung zusammengepresst wird und sich dementsprechend in der x-,y-Ebene ausdehnt. Hierdurch werden Aktuationsbewegungen erreicht, welche sehr präzise über die Spannung gesteuert werden können. Zusätzlich sind DEAs kostengünstig, leicht und aktuieren geräuschlos. DEAs können beispielsweise für Produkte im medizinischen Bereich oder für optischer Komponenten genutzt werden. Ebenso kann aus diesen Bauteilen Strom erzeugt werden. Das größte Hindernis für eine weite Implementierung dieser Materialien liegt in den erforderlichen hohen Spannungen zum Erzeugen der Aktuationsbewegung, welche sich tendenziell im Kilovolt-Bereich befinden. Dies macht die Elektronik teuer und die Bauteile unsicher für Anwender. Um geringere Betriebsspannungen für die DEAs zu erreichen, sind signifikante Materialverbesserungen - insbesondere des verwendeten Elastomers - erforderlich. Um dies zu erreichen, können die dielektrischen Eigenschaften (Permittivität) der Elastomere gesteigert und/oder deren Steifigkeit (Young-Modul) gesenkt werden. In der vorliegenden Arbeit konnte die Aktuationsleistung von Silikonfilmen durch die Addition organischer Dipole erheblich verbessert werden. Hierfür wurde ein Verfahren etabliert, um funktionalisierte Dipole kovalent an das Polymernetzwerk zu binden. Dieser als "One-Step-Verfahren" bezeichnete Ansatz ist einfach durchzuführen und es werden homogene Filme erhalten. Die Dipoladdition wurde anhand verschiedener Silikone erprobt, die sich hinsichtlich ihrer mechanischen Eigenschaften unterschieden. Bei maximalem Dipolgehalt verdoppelte sich die Permittivität aller untersuchten Silikone und die Filme wurden deutlich weicher. Hierbei war festzustellen, dass die Netzwerkstruktur der verwendeten Silikone einen erheblichen Einfluss auf die erreichte Aktuationsdehnung hat. Abhängig vom Netzwerk erfolgte eine enorme Steigerung der Aktuationsleistung im Bereich von 100 % bis zu 4000 %. Dadurch können die Betriebsspannungen in DEAs deutlich abgesenkt werden, so dass sie tendenziell bei Spannungen unterhalb von einem Kilovolt betrieben werden können.
Gewichts- und essstörungsrelevante Auffälligkeiten sind bereits im Kindesalter verbreitet. Neben genetischen Faktoren kommt auch die familiale Vermittlung gestörten Essverhaltens als Genesefaktor in Betracht. Ab dem Alter von zehn Jahren gibt es eine breite empirische Basis für die Verknüpfung gestörten Essverhaltens zwischen Müttern und ihren Kindern. Für das Alter unter zehn Jahren existiert bislang wenig gesichertes Wissen. Die Erforschung der spezifischen Wirkung des mütterlichen auf kindliches gestörtes Essverhalten ist jedoch im Hinblick auf Ansätze zur Prävention kindlicher Gewichts- und Essstörungen für dieses Alter von Bedeutung. Im Rahmen der vorliegenden Arbeit wurde gestörtes Essverhalten von Müttern und Kindern im Alter zwischen einem und zehn Jahren sowie die Beziehung gestörten Essverhaltens von Müttern und ihren Kindern in zwei Studien analysiert. Die erste Studie verfolgte das Ziel, gestörtes Essverhalten von Müttern und Kindern sowie deren Beziehung im Kontext mütterlichen Übergewichts zu analysieren. Es wurden 219 Mütter von Kindern im Alter von drei bis sechs Jahren befragt. In der zweiten Studie wurde neben mütterlichem Übergewicht die Rolle mütterlicher Essstörungssymptomatik fokussiert und in den Analysen des gestörten Essverhaltens von Kindern im Alter von einem bis zehn Jahren berücksichtigt. In die Untersuchung ging eine Stichprobe von 506 Müttern und deren Kindern ein. In beiden Studien beantworteten Mütter ein Fragebogenpaket, welches Instrumente zum gestörten Essverhalten der Mütter (emotionales, externales und gezügeltes Essverhalten) und gestörten Essverhalten des Kindes (emotionales und externales Essverhalten sowie Verlangen nach Essen) umfasste. In der zweiten Studie wurden darüber hinaus Primärsymptomatik einer Essstörung der Mutter (Schlankheitsstreben, Körperunzufriedenheit und bulimisches Essverhalten) und pathologisches Essverhalten der Kinder erfragt. Übergewichtige Mütter berichteten nicht nur höhere Ausprägungen emotionalen und externalen Essverhaltens, sondern auch mehr Schlankheitsstreben, Körperunzufriedenheit und bulimisches Essverhalten als normal- und untergewichtige Mütter. Insgesamt 26% der befragten Mütter der zweiten Studie berichteten eine relevante Essstörungssymptomatik, davon waren 62% übergewichtig. Für die Kinder konnten keine Geschlechtsunterschiede hinsichtlich des Essverhaltens nachgewiesen werden. Im Grundschulalter waren emotionales und pathologisches Essverhalten höher ausgeprägt als bei jüngeren Kindern. Kindliches Übergewicht war mit mehr emotionalem und externalem Essverhalten, Verlangen nach Essen sowie pathologischem Essverhalten verbunden. Das Vorliegen mütterlichen Übergewichts sowie einer mütterlichen Essstörungssymptomatik war mit höheren Ausprägungen v.a. emotionalen Essverhaltens des Kindes assoziiert. Die höchsten Ausprägungen emotionalen Essverhaltens zeigten Kinder, deren Mütter Übergewicht und eine komorbide Essstörungssymptomatik berichtet hatten. Darüber hinaus leisteten gestörte Essverhaltensweisen der Mutter über allgemeine und gewichtsspezifische Aspekte hinaus einen relevanten Beitrag zur Varianzaufklärung emotionalen und externalen Essverhaltens des Kindes. Dabei war emotionales und externales Essverhalten von Mutter und Kind spezifisch miteinander verknüpft. In der ersten Studie ließ sich im Rahmen eines Mediatormodells zeigen, dass die Beziehung zwischen mütterlichem BMI und emotionalem Essverhalten des Kindes vollständig durch das emotionale Essverhalten der Mutter vermittelt wurde. In der zweiten Studie moderierte das Alter des Kindes die Beziehung zwischen emotionalem Essverhalten von Müttern und ihren Kindern in Richtung einer signifikanten Assoziation ab dem Alter von 5,4 Jahren des Kindes. Die vorliegende Arbeit liefert deutliche Hinweise auf die Verknüpfung zwischen mütterlichen gewichts- und essstörungsrelevanten Merkmalen und kindlichem gestörtem Essverhalten. Die Befunde legen nahe, dass emotionales Essverhalten als spezifischer Übertragungsweg gewichts- und essbezogener Störungen zwischen Müttern und Kindern in Betracht kommt und in Präventionsansätzen berücksichtigt werden sollte.
We consider an SDE driven by a Lévy noise on a foliated manifold, whose trajectories stay on compact leaves. We determine the effective behavior of the system subject to a small smooth transversal perturbation of positive order epsilon. More precisely, we show that the average of the transversal component of the SDE converges to the solution of a deterministic ODE, according to the average of the perturbing vector field with respect to the invariant measures on the leaves (of the unpertubed system) as epsilon goes to 0. In particular we give upper bounds for the rates of convergence. The main results which are proved for pure jump Lévy processes complement the result by Gargate and Ruffino for Stratonovich SDEs to Lévy driven SDEs of Marcus type.
Enterolignans (enterodiol and enterolactone) exhibit structural similarity to estradiol and have therefore been hypothesized to modulate hormone related cancers such as breast cancer. The bioactivation of the plant lignan secoisolariciresinol diglucoside (SDG) requires the transformation by intestinal bacteria including the deglycosylation of SDG to secoisolariciresinol (SECO) followed by demethylation and dehydroxylation of SECO to enterodiol (ED). Finally, ED is dehydrogenated to enterolactone (EL). It is unclear whether the bacterial activation of SDG to ED and EL is crucial for the cancer preventing effects of dietary lignans. The possible protective effect of bacterial lignan transformation on a 7,12 dimethylbenz(a)anthracene (DMBA)-induced breast cancer in gnotobiotic rats was investigated. Germ-free rats were associated with a defined lignan-converting consortium (Clostridium saccharogumia, Blautia producta, Eggerthella lenta, and Lactonifactor longoviformis). The rats colonized with lignan-converting bacteria consortium (LCC) were fed a lignan-rich flaxseed diet and breast cancer was chemical induced. Identically treated germ-free rats served as control. All bacteria of the consortium successfully colonized the intestine of the LCC rats. The plant lignan SDG was converted into the enterolignans ED and EL in the LCC rats but not in the germ-free rats. This transformation did not influence cancer incidence but significantly decreased tumor numbers per tumor-bearing rat, and tumor size. Cell proliferation was significantly inhibited and apoptosis was significantly induced in LCC rats. No differences between LCC and control rats were observed in the expression of the genes encoding the estrogen receptors (ERα and ERβ) and G-coupled protein receptor 30 (GPR30). Similar findings were observed for both insulin-like growth factor 1 (IGF-1) and epidermal growth factor receptor (EGFR) genes involved in tumor growth. Proteome analysis revealed that 24 proteins were differentially expressed in tumor tissue from LCC and germ-free. RanBP-type and C3HC4-type zinc finger-containing protein 1 (RBCK1) and poly(rC)-binding protein 1 (PBCP1) were down-regulated by 3.2- and 2.0-fold, respectively. These proteins are associated with cell proliferation. The activity of selected enzymes involved in the degradation of oxidants in plasma and liver was significantly increased in the LCC rats. However, plasma and liver concentrations of reduced glutathione (non-enzymatic antioxidant) and malondialdehyde (oxidative stress marker) did not differ between the groups. In conclusion, the bacterial conversion of plant lignan to enterolignans beneficially influences their anti-cancer effect. However, the mechanisms involved in these effects remain elusive.
Cost models are an essential part of database systems, as they are the basis of query performance optimization. Based on predictions made by cost models, the fastest query execution plan can be chosen and executed or algorithms can be tuned and optimised. In-memory databases shifts the focus from disk to main memory accesses and CPU costs, compared to disk based systems where input and output costs dominate the overall costs and other processing costs are often neglected. However, modelling memory accesses is fundamentally different and common models do not apply anymore. This work presents a detailed parameter evaluation for the plan operators scan with equality selection, scan with range selection, positional lookup and insert in in-memory column stores. Based on this evaluation, a cost model based on cache misses for estimating the runtime of the considered plan operators using different data structures is developed. Considered are uncompressed columns, bit compressed and dictionary encoded columns with sorted and unsorted dictionaries. Furthermore, tree indices on the columns and dictionaries are discussed. Finally, partitioned columns consisting of one partition with a sorted and one with an unsorted dictionary are investigated. New values are inserted in the unsorted dictionary partition and moved periodically by a merge process to the sorted partition. An efficient attribute merge algorithm is described, supporting the update performance required to run enterprise applications on read-optimised databases. Further, a memory traffic based cost model for the merge process is provided.
The development of self-adaptive software requires the engineering of an adaptation engine that controls and adapts the underlying adaptable software by means of feedback loops. The adaptation engine often describes the adaptation by using runtime models representing relevant aspects of the adaptable software and particular activities such as analysis and planning that operate on these runtime models. To systematically address the interplay between runtime models and adaptation activities in adaptation engines, runtime megamodels have been proposed for self-adaptive software. A runtime megamodel is a specific runtime model whose elements are runtime models and adaptation activities. Thus, a megamodel captures the interplay between multiple models and between models and activities as well as the activation of the activities. In this article, we go one step further and present a modeling language for ExecUtable RuntimE MegAmodels (EUREMA) that considerably eases the development of adaptation engines by following a model-driven engineering approach. We provide a domain-specific modeling language and a runtime interpreter for adaptation engines, in particular for feedback loops. Megamodels are kept explicit and alive at runtime and by interpreting them, they are directly executed to run feedback loops. Additionally, they can be dynamically adjusted to adapt feedback loops. Thus, EUREMA supports development by making feedback loops, their runtime models, and adaptation activities explicit at a higher level of abstraction. Moreover, it enables complex solutions where multiple feedback loops interact or even operate on top of each other. Finally, it leverages the co-existence of self-adaptation and off-line adaptation for evolution.
Die Tagungsreihe zur Hochschuldidaktik der Informatik HDI wird vom Fachbereich Informatik und Ausbildung / Didaktik der Informatik (IAD) in der Gesellschaft für Informatik e. V. (GI) organisiert. Sie dient den Lehrenden der Informatik in Studiengängen an Hochschulen als Forum der Information und des Austauschs über neue didaktische Ansätze und bildungspolitische Themen im Bereich der Hochschulausbildung aus der fachlichen Perspektive der Informatik. Diese fünfte HDI 2012 wurde an der Universität Hamburg organisiert. Für sie wurde das spezielle Motto „Informatik für eine nachhaltige Zukunft“ gewählt, um insbesondere Fragen der Bildungsrelevanz informatischer Inhalte, der Kompetenzen für Studierende informatisch geprägter Studiengänge und der Rolle der Informatik in der Hochschulentwicklung zu diskutieren.
Am 29. und 30. November 2012 fand am Hasso-Plattner-Institut für Softwaresystemtechnik GmbH in Potsdam der 5. Deutsche IPv6 Gipfel 2012 statt, als dessen Dokumentation der vorliegende technische Report dient. Wie mit den vorhergegangenen nationalen IPv6 Gipfeln verfolgte der Deutsche IPv6-Rat auch mit dem 5. Gipfel, der unter dem Motto „IPv6- der Wachstumstreiber für die Deutsche Wirtschaft” stand, das Ziel, Einblicke in aktuelle Entwicklungen rund um den Einsatz von IPv6 zu geben. Unter anderem wurden die Vorzüge des neue Internetstandards IPv6 vorgestellt und über die Anwendung von IPv6 auf dem Massenmarkt, sowie den Einsatz von IPv6 in Unternehmen und in der öffentlichen Verwaltung referiert. Weitere Themen des Gipfels bezogen sich auf Aktionen und Bedingungen in Unternehmen und Privathaushalten, die für den Umstieg auf IPv6 notwendig sind und welche Erfahrungen dabei bereits gesammelt werden konnten. Neben Vorträgen des Bundesbeauftragten für Datenschutz Peter Schaar und des Geschäftsführers der Technik Telekom Deutschland GmbH, Bruno Jacobfeuerborn, wurden weiteren Beiträge hochrangiger Vertretern aus Politik, Wissenschaft und Wirtschaft präsentiert, die in diesem technischen Bericht zusammengestellt sind.
SEE THE REAL INDIA – nicht erst seit Slumdog Millionaire versteht sich der mitten im Mumbai gelegene Slum Dharavi als Geheimtipp für Ausflüge abseits des touristischen Mainstreams. Er reiht sich somit in die Reihe der weltweit touristifizierten Armenviertel ein, wie die Favelas von Rio oder die Townships von Kapstadt. Die Entwicklung des globalen Slumtourismus ist zunächst verwunderlich. Favelas Townships und Slums gelten gemeinhin als Orte des Elends und stehen im Kontrast zu den herkömmlichen Sehenswürdigkeiten der besuchten Städte. Von Medien und anderen Touristen wird die touristische Vermarktung der Armenviertel daher oftmals als Voyeurismus und Ausbeutung kritisiert. Anbieter von Slumtouren erklären jedoch, im Mittelpunkt der Touren stände nicht die Zurschaustellung von Armut und Elend, sondern vielmehr das Hervorheben kultureller Aspekte und positiver Entwicklungsimpulse. Vor diesem Hintergrund geht die Arbeit der Frage nach, ob sich die Besichtigung von Armut als zentrales Charakteristikum des Slumtourismus bestimmen lässt. Anhand einer empirischen Fallstudie wird untersucht, wie der indische Slum Dharavi als touristischer Ort (re-)produziert wird. Mit welchen wahrnehmungsleitenden Schemata beobachten teilnehmende Touristen und Tour-Anbieter den Slum und welche je verschiedenen Vorstellungen und Bilder von Dharavi bzw. von Armut werden dadurch bewusst und unbewusst konstruiert?
Various synthetic approaches were explored towards the preparation of poly(N-substituted glycine) homo/co-polymers (a.k.a. polypeptoids). In particular, monomers that would facilitate in the preparation of bio-relevant polymers via either chain- or step-growth polymerization were targeted. A 3-step synthetic approach towards N-substituted glycine N-carboxyanhydrides (NNCA) was implemented, or developed, and optimized allowing for an efficient gram scale preparation of the aforementioned monomer (chain-growth). After exploring several solvents and various conditions, a reproducible and efficient ring-opening polymerization (ROP) of NNCAs was developed in benzonitrile (PhCN). However, achieving molecular weights greater than 7 kDa required longer reaction times (>4 weeks) and sub-sequentially allowed for undesirable competing side reactions to occur (eg. zwitterion monomer mechanisms). A bulk-polymerization strategy provided molecular weights up to 11 kDa within 24 hours but suffered from low monomer conversions (ca. 25%). Likewise, a preliminary study towards alcohol promoted ROP of NNCAs suffered from impurities and a suspected alternative activated monomer mechanism (AAMM) providing poor inclusion of the initiator and leading to multi-modal dispersed polymeric systems. The post-modification of poly(N-allyl glycine) via thiol-ene photo-addition was observed to be quantitative, with the utilization of photo-initiators, and facilitated in the first glyco-peptoid prepared under environmentally benign conditions. Furthermore, poly(N-allyl glycine) demonstrated thermo-responsive behavior and could be prepared as a semi-crystalline bio-relevant polymer from solution (ie. annealing). Initial efforts in preparing these polymers via standard poly-condensation protocols were insufficient (step-growth). However, a thermally induced side-product, diallyl diketopiperazine (DKP), afforded the opportunity to explore photo-induced thiol-ene and acyclic diene metathesis (ADMET) polymerizations. Thiol-ene polymerization readily led to low molecular weight polymers (<2.5 kDa), that were insoluble in most solvents except heated amide solvents (ie. DMF), whereas ADMET polymerization, with diallyl DKP, was unsuccessful due to a suspected 6 member complexation/deactivation state of the catalyst. This understanding prompted the preparation of elongated DKPs most notably dibutenyl DKP. SEC data supports the aforementioned understanding but requires further optimization studies in both the preparation of the DKP monomers and following ADMET polymerization. This work was supported by NMR, GC-MS, FT-IR, SEC-IR, and MALDI-Tof MS characterization. Polymer properties were measured by UV-Vis, TGA, and DSC.
Climatic variations and human activity now and increasingly in the future cause land cover changes and introduce perturbations in the terrestrial carbon reservoirs in vegetation, soil and detritus. Optical remote sensing and in particular Imaging Spectroscopy has shown the potential to quantify land surface parameters over large areas, which is accomplished by taking advantage of the characteristic interactions of incident radiation and the physico-chemical properties of a material. The objective of this thesis is to quantify key soil parameters, including soil organic carbon, using field and Imaging Spectroscopy. Organic carbon, iron oxides and clay content are selected to be analyzed to provide indicators for ecosystem function in relation to land degradation, and additionally to facilitate a quantification of carbon inventories in semiarid soils. The semiarid Albany Thicket Biome in the Eastern Cape Province of South Africa is chosen as study site. It provides a regional example for a semiarid ecosystem that currently undergoes land changes due to unadapted management practices and furthermore has to face climate change induced land changes in the future. The thesis is divided in three methodical steps. Based on reflectance spectra measured in the field and chemically determined constituents of the upper topsoil, physically based models are developed to quantify soil organic carbon, iron oxides and clay content. Taking account of the benefits limitations of existing methods, the approach is based on the direct application of known diagnostic spectral features and their combination with multivariate statistical approaches. It benefits from the collinearity of several diagnostic features and a number of their properties to reduce signal disturbances by influences of other spectral features. In a following step, the acquired hyperspectral image data are prepared for an analysis of soil constituents. The data show a large spatial heterogeneity that is caused by the patchiness of the natural vegetation in the study area that is inherent to most semiarid landscapes. Spectral mixture analysis is performed and used to deconvolve non-homogenous pixels into their constituent components. For soil dominated pixels, the subpixel information is used to remove the spectral influence of vegetation and to approximate the pure spectral signature coming from the soil. This step is an integral part when working in natural non-agricultural areas where pure bare soil pixels are rare. It is identified as the largest benefit within the multi-stage methodology, providing the basis for a successful and unbiased prediction of soil constituents from hyperspectral imagery. With the proposed approach it is possible (1) to significantly increase the spatial extent of derived information of soil constituents to areas with about 40 % vegetation coverage and (2) to reduce the influence of materials such as vegetation on the quantification of soil constituents to a minimum. Subsequently, soil parameter quantities are predicted by the application of the feature-based soil prediction models to the maps of locally approximated soil signatures. Thematic maps showing the spatial distribution of the three considered soil parameters in October 2009 are produced for the Albany Thicket Biome of South Africa. The maps are evaluated for their potential to detect erosion affected areas as effects of land changes and to identify degradation hot spots in regard to support local restoration efforts. A regional validation, carried out using available ground truth sites, suggests remaining factors disturbing the correlation of spectral characteristics and chemical soil constituents. The approach is developed for semiarid areas in general and not adapted to specific conditions in the study area. All processing steps of the developed methodology are implemented in software modules, where crucial steps of the workflow are fully automated. The transferability of the methodology is shown for simulated data of the future EnMAP hyperspectral satellite. Soil parameters are successfully predicted from these data despite intense spectral mixing within the lower spatial resolution EnMAP pixels. This study shows an innovative approach to use Imaging Spectroscopy for mapping of key soil constituents, including soil organic carbon, for large areas in a non-agricultural ecosystem and under consideration of a partially vegetation coverage. It can contribute to a better assessment of soil constituents that describe ecosystem processes relevant to detect and monitor land changes. The maps further provide an assessment of the current carbon inventory in soils, valuable for carbon balances and carbon mitigation products.
Automobildesigner haben als Gestaltungsexperten die Aufgabe, die Identität und damit die Werte einer Marke in Formen zu übersetzen, welche eine Vielzahl von Kunden ansprechen (Giannini & Monti, 2003; Karjalainen, 2002). Für diesen Übersetzungsprozess ist es zielführend, ästhetische Kundenbedürfnisse zu kennen, denn die Qualität einer Designlösung hängt auch davon ab, inwieweit der Designer Kundenbe-dürfnisse und damit das Designproblem richtig erfasst hat (Ulrich, 2006). Eine Grundlage hierfür entsteht durch eine erfolgreiche Designer-Nutzer-Interaktion und den Aufbau eines gemeinsamen Kontextwissens (Lee, Popovich, Blackler & Lee, 2009). Zwischen Designern und Kunden findet jedoch häufig kein direkter Austausch statt (Zeisel, 2006). Zudem belegen Befunde der Kunst- und Produktästhetikforschung, dass der Erwerb von gestalterischem Wissen und damit die Entwicklung ästhetischer Expertise mit Veränderungen der kognitiven Verarbeitung ästhetischer Objekte einhergeht, die sich in Wahrnehmung, Bewertung und Verhalten manifestieren. Damit ist auch zu erwarten, dass die Präferenzurteile von Designern und Kunden bei der ästhetischen Bewertung von Design nicht immer konvergieren. Ziel der vorliegenden Arbeit war daher die systematische Untersuchung dieser expertisebedingten Wahrnehmungs- und Bewertungsunterschiede zwischen designge-schulten und ungeschulten Personen bei der Betrachtung von Automobildesign. Damit sollten Perzeption, Verarbeitung und Bewertung von Automobildesign durch design-ungeschulte Personen transparenter gemacht und mit der Verarbeitung designgeschul-ter Personen verglichen werden, um einen Beitrag zur gemeinsamen Wissensbasis und damit einer erfolgreichen Designer-Nutzer-Interaktion zu leisten. Die theoretische Einbettung der Arbeit basierte auf dem Modell ästhetischer Erfahrung und ästheti-schen Urteilens von Leder, Belke, Oeberst und Augustin (2004), welches konkrete Annahmen zu Verarbeitungsunterschieden von ästhetischen Objekten zwischen Experten und Laien bietet, die bisher allerdings noch nicht umfassend geprüft wurden. Den ersten Schwerpunkt dieser Arbeit bildete die Untersuchung von Unter-schieden zwischen Designern und designungeschulten Rezipienten bei der Beschrei-bung und Bewertung auf dem Markt vorhandenen Fahrzeugdesigns. Dabei sollte auch geprüft werden, ob eine lexikalische Verbindung zwischen Beschreibungsattributen von Fahrzeugrezipienten und den postulierten Markenwerten von Automobilmarken hergestellt werden kann. Diesem ersten Untersuchungsanliegen wurde in zwei Studien nachgegangen: Studie I diente der Erhebung von Beschreibungsattributen mittels Triadenvergleich in Anlehnung an Kelly (1955). Es wurde geprüft, ob designgeschulte Teilnehmer produkti-ver verbalisieren, dabei anteilig mehr symbolbezogene als formbezogene Attribute generieren und innerhalb ihrer Gruppe häufiger gleiche Attribute nutzen als designun-geschulte Teilnehmer. Hierfür beschrieben 20 designgeschulte Probanden und 20 designungeschulte Probanden mit selbst gewählten Adjektiven die Unterschiede zwischen vier präsentierten Fahrzeugen. Die Gruppen nutzten dabei entgegen der Annahmen sehr ähnliche Attribute und unterschieden sich somit auch nicht in ihrer Verwendung symbolbezogener und formbezogener Attribute. Die generierten Attribute wurden mittels Prototypenansatz (Amelang & Zielinski, 2002) den ermittelten und nachfolgend kategorisierten Markenwerten von 10 Automobilherstellern zugeordnet, so dass sechs Skalen zur Erfassung der ästhetischen Wirkung von Fahrzeugen entstanden. In Studie II wurde ein diese sechs Skalen umfassender Fragebogen an einer Stichprobe von 83 Designern und Designstudierenden sowie 98 Probanden ohne Designausbildung in einer Onlinebefragung hinsichtlich Skalenkonsistenz geprüft. Außerdem wurden erste Annahmen aus dem Modell von Leder et al. (2004) abgeleitet und durch einen Vergleich der beiden Teilnehmergruppen hinsichtlich der Bewertung der vier präsentierten Fahrzeugmodelle für die Skalen mit guter interner Konsistenz (Attraktivität, Dynamik, Fortschritt, Qualität), sowie eines ästhetischen Gesamturteils, der benötigten Bewertungszeit und der Automobilaffinität überprüft. Hierbei vergaben Designstudierende und insbesondere ausgebildete Designer radikalere Bewertungen als Designlaien, benötigten mehr Zeit bei der Bewertung und waren automobilaffiner als die ungeschulten Befragungsteilnehmer. Den zweiten Schwerpunkt der Arbeit bildete eine konzeptionelle Zusammen-führung der Annahmen des Modells von Leder et al. (2004) und der Postulate zur Wirkung von Objekteigenschaften auf ästhetische Urteile (Berlyne, 1971; Martindale, 1988; Silvia, 2005b). Konkret sollte geprüft werden, welchen Einfluss marktrelevante Objekteigenschaften, wie z.B. das Ausmaß an Innovativität, auf die durch Expertise moderierte Bewertung von Design haben. In den Studien III und IV wurden hierfür systematisch bezüglich Innovativität und Balance gestufte Linienmodelle von Fahrzeu-gen präsentiert. In Studie III wurden die Modelle in einer Onlinebefragung durch 18 Designstudierende und 20 Studenten der Fahrzeugtechnik hinsichtlich Attraktivität, Innovativität und Balance bewertet. Im Einklang mit den Annahmen konnte gezeigt werden, dass sehr neuartiges Design von den designungeschulten Probanden als weniger attraktiv bewertet wird als von Betrachtern eines Designstudienganges. In Studie IV wurden neben den Ästhetikbewertungen zusätzlich das Blickverhal-ten und der affektiver Zustand der Versuchsteilnehmer in einem Messwiederholungs-design mit einer zwischengelagerten Phase elaborierter Designbewertung, in welcher der in Studie II geprüfte Fragebogen eingesetzt wurde, erhoben. An der Laborstudie nahmen je 11 Designer, Ingenieure, und Geisteswissenschaftler teil. Wiederum wurde innovatives Design von den designungeschulten Gruppen als weniger attraktiv bewertet. Dieser Unterschied reduzierte sich jedoch nach wiederholter Bewertung der Modelle. Die Manifestation expertisebedingten Blickverhaltens konnte nicht beobach-tet werden, wie auch die durch eine angenommene bessere Bewältigung einherge-hende positivere Stimmung oder höhere Zufriedenheit in der Expertengruppe. Gemeinsam mit den Befunden aus den Studien II und III wurde deutlich, dass Designausbildung und, noch ausgeprägter, Designexpertise neben einer höheren Attraktivitätsbewertung innovativen Designs auch zu einer differenzierteren Beurtei-lung von Innovativität führt. Dies wurde mit der Erweiterung des mentalen Schemas für Fahrzeuge durch die Beschäftigung mit vielfältigen Modellvarianten bereits während des Studiums interpretiert. Es wurden Hinweise auf eine stilbezogene, elaboriertere Verarbeitung von Fahrzeugdesign durch designgeschulte Betrachter beobachtet sowie eine mit Expertise einhergehende Autonomität ästhetischer Urteile als Ausdruck einer hohen ästhetischen Entwicklungsstufe (Parsons, 1987). Mit diesen bei unterschiedlichen Stichproben beobachteten, stabilen expertisebedingten Bewer-tungsunterschieden wurde eine begründete Basis für die geforderte Sensibilisierung für ästhetische Kundenbedürfnisse im Gestaltungsprozess geschaffen. Der in dieser Arbeit entwickelte Fragebogen kann hierbei für eine elaborierte Messung von Fahrzeugdesignpräferenzen, zum Vergleich der ästhetischen Wirkung mit den intendierten Markenwerten sowie für die Diskussion von Nutzereindrücken eingesetzt werden. Die Ergebnisse der vorliegenden Arbeiten tragen somit zur Erweiterung und Präzisierung des theoretischen Verständnisses von Ästhetikbewertungen bei und lassen sich gleichzeitig in die Praxis der Designausbildung und des Designprozesses übertragen.
The European Values Education (EVE) project is a large-scale, cross-national, and longitudinal survey research programme on basic human values. The main topic of its second stage was family values in Europe. Student teachers of several universities in Europe worked together in multicultural exchange groups. Their results are presented in this issue.
This thesis rests on two large Active Galactic Nuclei (AGNs) surveys. The first survey deals with galaxies that host low-level AGNs (LLAGN) and aims at identifying such galaxies by quantifying their variability. While numerous studies have shown that AGNs can be variable at all wavelengths, the nature of the variability is still not well understood. Studying the properties of LLAGNs may help to understand better galaxy evolution, and how AGNs transit between active and inactive states. In this thesis, we develop a method to extract variability properties of AGNs. Using multi-epoch deep photometric observations, we subtract the contribution of the host galaxy at each epoch to extract variability and estimate AGN accretion rates. This pipeline will be a powerful tool in connection with future deep surveys such as PANSTARS. The second study in this thesis describes a survey of X-ray selected AGN hosts at redshifts z>1.5 and compares them to quiescent galaxies. This survey aims at studying environments, sizes and morphologies of star-forming high-redshift AGN hosts in the COSMOS Survey at the epoch of peak AGN activity. Between redshifts 1.5<z<3.8, the COSMOS HST/ACS imaging probes the UV regime, where separating the AGN flux from its host galaxy is very challenging. Nevertheless, we successfully derived the structural properties of 249 AGN hosts using two-dimensional surface-brightness profile fitting with the GALFIT package. This is the largest sample of AGN hosts at redshift z>1.5 to date. We analyzed the evolution of structural parameters of AGN and non-AGN host galaxies with redshift, and compared their disturbance rates to identify the more probable AGN triggering mechanism in the 43.5<log_10 L_X<45 luminosity range. We also conducted mock AGN and quiescent galaxies observations to determine errors and corrections for the derived parameters. We find that the size-absolute magnitude relations of AGN hosts and non-AGN galaxies are very similar, with estimated mean sizes in both samples decreasing by ~50% between redshifts z=1.5 and z=3.5. Morphological classification of both active and quiescent galaxies shows that the majority of the AGN host galaxies are disc-dominated, with disturbance rates that are significantly lower than among the non-AGN galaxies. Such a finding suggests that Major Mergers are probably not responsible for triggering AGN accretion in most of these galaxies. Other secular mechanisms should therefore be responsible.
Kultur gibt den Menschen eine Orientierung. Sie machen darin ganz spezifische Erfahrungen. Hieraus entwickeln sich auch motivationale Orientierungen. Dadurch werden andere Erfahrungen gemacht, die Sportler können andere Motivation und Volition entwickeln. Dabei sind mehr kollektivistische Kulturen eher vermeidungs-motiviert und mehr individualistische Kulturen mehr erfolgsorientiert. Beim Kollektivismus erscheint die Leistungsmotivation eher unter einem sozialen Aspekt, nämlich die Auseinandersetzung mit einem Gütemaßstab, der eher von außen vorgegeben wird und weniger einem ausschließlich eigenen Maßstab. Ägypten erweist sich im Vergleich zu Deutschland als eine eher kollektivistisch geprägte Kultur. Daraus ergeben sich folgende Unterschiede: Einen signifikanten Unterschied zwischen deutschen und ägyptischen Ringern gibt es in der Wettkampforientierung und bei der Sieg- bzw. Gewinn-Orientierung. Die ägyptischen Ringer habe eine höhere Ausprägung als die Deutschen. Sie weisen auch eine etwas höhere Zielorientierung auf als die Deutschen. Entgegen den Erwartungen zeigte sich, dass es keine signifikanten Unterschiede zwischen den ägyptischen und deutschen Ringern gibt in der Variable: Sieg- bzw. Gewinn-Orientierung. Die Furcht vor Misserfolg sowie auch die Hoffnung auf Erfolg liegen höher bei den Ägyptern als bei den Deutschen. Bezogen auf die Modi der Handlungskontrolle verfügen die Deutschen Ringer über eine höher Ausprägung auf allen drei Komponenten. Sie haben eine höhere Handlungsorientierung nach Misserfolg, eine höhere Handlungsplanung sowie eine höhere Handlungstätigkeitsausführung. Diese kulturell kontrastive Studie über die psychologischen Aspekte, im Bereich der Leistungsmotivation und der Handlungskontrolle, kann für die Sportart Ringen sehr nützlich werden, da sie sehr wichtig ist beim Erkennen der sportlichen Überlegenheits- und Schwächemerkmale. Sie wiederspiegelt auch die Hochstimmung in den entwickelten Staaten oder die Misere in den anderen Staaten. Aus den interkulturellen Unterschieden in der Motivation und Volition können somit verschiedene Maßnahmen zu sportpsychologischen Interventionen entwickelt werden. Es sollte unbedingt darauf wert gelegt werden, dass die kulturell bedingten Unterschiede im Trainingsalltag beachtet werden, bei Teams, die aus Personen aus unterschiedlichen Kulturkreisen stammen.
We are interested in modeling the Darwinian evolution of a population described by two levels of biological parameters: individuals characterized by an heritable phenotypic trait submitted to mutation and natural selection and cells in these individuals influencing their ability to consume resources and to reproduce. Our models are rooted in the microscopic description of a random (discrete) population of individuals characterized by one or several adaptive traits and cells characterized by their type. The population is modeled as a stochastic point process whose generator captures the probabilistic dynamics over continuous time of birth, mutation and death for individuals and birth and death for cells. The interaction between individuals (resp. between cells) is described by a competition between individual traits (resp. between cell types). We are looking for tractable large population approximations. By combining various scalings on population size, birth and death rates and mutation step, the single microscopic model is shown to lead to contrasting nonlinear macroscopic limits of different nature: deterministic approximations, in the form of ordinary, integro- or partial differential equations, or probabilistic ones, like stochastic partial differential equations or superprocesses.