Refine
Year of publication
Document Type
- Article (35737)
- Doctoral Thesis (6485)
- Monograph/Edited Volume (5550)
- Postprint (3296)
- Review (2291)
- Part of a Book (1066)
- Other (911)
- Preprint (567)
- Conference Proceeding (539)
- Part of Periodical (525)
Language
Keywords
- Germany (202)
- climate change (182)
- Deutschland (142)
- machine learning (82)
- European Union (79)
- diffusion (78)
- Sprachtherapie (77)
- morphology (74)
- Logopädie (73)
- Migration (73)
Institute
- Institut für Biochemie und Biologie (5444)
- Institut für Physik und Astronomie (5420)
- Institut für Geowissenschaften (3646)
- Institut für Chemie (3480)
- Wirtschaftswissenschaften (2645)
- Historisches Institut (2511)
- Department Psychologie (2344)
- Institut für Mathematik (2144)
- Institut für Romanistik (2108)
- Sozialwissenschaften (1883)
Die Banken- und Börsensysteme Europas befinden sich in einem grundlegenden Wandel. Globalisierungsprozesse der Finanzmärkte, die Harmonisierung der aufsichtsrechtlichen Rahmenbedingungen sowie neue Informationstechnologien stellen hohe Anforderungen. Die Integration Russlands in die Weltwirtschaft erfordert eine weitere Liberalisierung, Fortentwicklung und Anpassung der Banken- und Börsenstrukturen an internationale und europäische Standards, um die nationale und internationale Kapitalallokation effizienter zu gestalten. Finanz-, Banken- und Börsenexperten aus deutschen und russischen Universitäten lehren und forschen seit Jahren zu diesen Fragestellungen. Der Potsdamer Workshop stellt die Ergebnisse verschiedener Lehrstühle aus Potsdam, St. Petersburg und Moskau zur Diskussion. Mit folgenden Beiträgen: Detlev HUMMEL: Integration und Perspektiven des Europäischen Kapitalmarktes, Hans-Georg PETERSEN: Tax Competition, Tax Havens and Capital income Taxation, Yakov M. MIRKIN: Importance of the European Capital Market for Russia, Christoph LATTEMANN: Elektronische Systeme für den Wertpapierhandel in Europa und Entwicklungsmöglichkeiten für Russland – eine explorative Studie, Hans-Joachim MASSENBERG: Lage und Perspektiven des deutschen Bankensektors, Ralf WIEGERT: Russia’s Banking System, the Central Bank and the Exchange Rate Regime, Galina BELOGLAZOWA: Entwicklungsstrategie des russischen Bankensystems und die Rolle der Sberbank, Anatole KOSMATCHEV: Wettbewerb im Bankensystem Russlands, Tatjana NIKITINA: Auswirkungen von Basel II auf das russische Bankensystem, Julia PLAKITKINA: Auslandsbanken in Russland, Natalia DOUMNAYA: Russian-German Economic Relations under Globalization, Tatjana NIKOLAJEWA: Investitionen, Banken und Wirtschaftswachstum in Russland, Alexej LINKOV: Die aktuellen Probleme der Außenverschuldung Russlands
Time series analysis
(2004)
Das Thema Bestandsmanagement ist bereits seit Mitte der 80er Jahre bekannt. Es betrifft alle warenwirtschaftlichen Prozesse zur Planung und Steuerung von Beständen. Dabei muss es mit den Schwierigkeiten umgehen können, die aus den stetig wachsenden Marktanforderungen hervorgehen. Dazu gehört neben dem enorm hohen Kostendruck und die sich gleichzeitig stetig verkürzenden Liefer- und Produktlebenszeiten auch die rapide steigende Variantenvielfalt. Dies führt zu einem konstanten Komplexitätsanstieg innerhalb der Bestandsplanung und –steuerung ----------
Bestimmung von Ozonabbauraten über der Arktis und Antarktis mittels Ozonsonden- und Satellitendaten
(2005)
Diese Arbeit beschäftigt sich mit der chemischen Ozonzerstörung im arktischen und antarktischen stratosphärischen Polarwirbel. Diese wird durch Abbauprodukte von anthropogen emittierten Fluorchlorkohlenwasserstoffen und Halonen, Chlor- und Bromradikale, verursacht. Studien in denen der gemessene und modellierte Ozonabbau verglichen wird zeigen, dass die Prozeße bekannt sind, der quantitative Verlauf allerdings nicht vollständig verstanden ist. Die Prozesse, die zur Ozonzerstörung führen sind in beiden Polarwirbeln ähnlich. Allerdings fällt als Konsequenz unterschiedlicher meteorologischer Bedingungen der chemische Ozonabbau im arktischen Polarwirbel weniger drastisch aus als über der Antarktis. Der arktische Polarwirbel ist im Mittel stärker dynamisch gestört als der antarktische und weist eine stärkere Jahr-zu-Jahr Variabilität auf. Das erschwert die Messung des chemischen Ozonabbaus. Zur Trennung des chemischen Ozonabbaus von der dynamischen Umverteilung des Ozons im arktischen Polarwirbel wurde die Matchmethode entwickelt. Bei dieser Methode werden Luftpakete innerhalb des Polarwirbels mehrfach beprobt, um den chemischen Anteil der Ozonänderung zu quantifizieren. Zur Identifizierung von doppelt beprobten Luftpaketen werden Trajektorien aus Windfeldern berechnet. Können zwei Messungen im Rahmen bestimmter Qualitätskriterien durch eine Trajektorie verbunden werden, kann die Ozondifferenz zwischen beiden Sondierungen berechnet und als chemischer Ozonabbau interpretiert werden. Eine solche Koinzidenz wird Match genannt. Der Matchmethode liegt ein statistischer Ansatz zugrunde, so dass eine Vielzahl solcher doppelt beprobter Luftmassen vorliegen muss, um gesicherte Aussagen über die Ozonzerstörung gewinnen zu können. So erhält man die Ozonzerstörung in einem bestimmten Zeitintervall, also Ozonabbauraten. Um die Anzahl an doppelt beprobten Luftpackten zu erhöhen wurde eine aktive Koordinierung der Ozonsondenaufstiege entwickelt. Im Rahmen dieser Arbeit wurden Matchkampagnen während des arktischen Winters 2002/2003 und zum ersten Mal während eines antarktischen Winter (2003) durchgeführt. Aus den gewonnenen Daten wurden Ozonabbauraten in beiden Polarwirbeln bestimmt. Diese Abbauraten dienen zum einen der Evaluierung von Modellen, ermöglichen aber auch den direkten Vergleich von Ozonabbauraten in beiden Polarwirbeln. Der Winter 2002/2003 war zu Beginn durch sehr tiefe Temperaturen in der mittleren und unteren Stratosphäre charakterisiert, so dass die Matchkampagne Ende November gestartet wurde. Ab Januar war der Polarwirbel zeitweise stark dynamisch gestört. Die Kampagne ging bis Mitte März. Für den Höhenbereich von 400 bis 550 K potentieller Temperatur (15-23 km) konnten Ozonabbauraten und der Verlust in der Gesamtsäule berechnet werden. Die Ozonabbauraten wurden in verschiedenen Tests auf ihre Stabilität überprüft. Der antarktische Polarwirbel war vom Beginn des Winters bis Mitte Oktober 2003 sehr kalt und stellte Ende September kurzzeitig den Rekord für die größte bisher aufgetretene Ozonloch-Fläche ein. Es konnten für den Kampagnenzeitraum, Anfang Juni bis Anfang Oktober, Ozonabbauraten im Höhenbereich von 400 bis 550 K potentieller Temperatur ermittelt werden. Der zeitliche Verlauf des Ozonabbaus war dabei auf fast allen Höhenniveaus identisch. Die Zunahme des Sonnenlichtes im Polarwirbel mit der Zeit führt zu einem starken Anwachsen der Ozonabbauraten. Ab Mitte September gingen die Ozonabbauraten auf Null zurück, da bis zu diesem Zeitpunkt das gesamte Ozon zwischen ca. 14 und 21 km zerstört wurde. Im letzten Teil der Arbeit wird ein neuer Algorithmus auf Basis der multivariaten Regression vorgestellt, mit dem Ozonabbauraten aus Ozonprofilen verschiedener Sensoren gleichzeitig berechnet werden können. Dabei können neben der Ozonabbaurate die systematischen Fehler zwischen den einzelnen Sensoren bestimmt werden. Dies wurde exemplarisch am antarktischen Winter 2003 für das 475 K potentielle Temperatur Niveau gezeigt. Neben den Ozonprofilen der Sonden wurden Daten von zwei Satellitenexperimenten verwendet. Die mit der multivariaten Matchtechnik berechneten Ozonabbauraten stimmen gut mit den Ozonabbauraten der Einzelsensor-Matchansätze überein.
Anhand internationaler und nationaler Entwicklungen wird aufgezeigt, wie sich die sonderpädagogischen Förderung gestaltet und welche Schwerpunkte in den einzelnen Ländern gesetzt. Es wird herausgearbeitet, welche Bedingungen in einem Schulsystem geschaffen werden müssen, um alle Schülerinnen und Schüler angemessen zu fördern.
Am Beispiel der Orgelpfeife wurde der Einfluss der Wandungsgeometrie des akustischen Wellenleiters auf die Schallabstrahlung untersucht. Für verschiedene Metalllegierungen wurden unterschiedliche Profile der Orgelpfeifenwandung verglichen: ein konisches Wandungsprofil mit zur Mündung hin abnehmender Wandungsstärke und ein paralleles Wandungsprofil mit konstanter Wandungsstärke. Für eine hohe statistische Sicherheit der Ergebnisse wurden sämtliche Untersuchungen an vier mal zehn Testpfeifen durchgeführt. Mit Ausnahme der beschriebenen Unterschiede sind die Pfeifen von gleichen Abmessungen und auf gleichen Klang intoniert. Die Überprüfung der Wandungseinflüsse auf den Klang besteht aus drei verschiedenen Untersuchungen: Erstens, einer subjektiven Hinterfragung der Wahrnehmbarkeit in einem Hörtest. Zweitens wurde der abgestrahlte Luftschall objektiv gemessen und das Spektrum der Pfeifen in seinen Komponenten (Teiltöne, Grundfrequenz) verglichen. Drittens wurde mit einer neuartigen Messtechnik die Oszillation des Pfeifenkörpers (ein einem akustischen Monopol entsprechendes "Atmen" des Querschnitts) untersucht. Die Ergebnisse belegen die Wahrnehmbarkeit unterschiedlicher Wandungsprofile als auch klare objektive Differenzen zwischen den emittierten Schallspektren. Ein Atmen mit guter Korrelation zur inneren Druckanregung bestätigt den Einfluss wandungsprofilabhängiger Oszillationen auf den Klang der Orgelpfeife. Schließlich wurde die Interaktion zweier in Abstand und Grundfrequenz nah beieinander liegender Orgelpfeifen überprüft. Als Ursache des dabei wahrnehmbaren Oktavsprung des Orgeltons konnte eine gegenphasiger Oszillation des Grundtons beider Pfeifen nachgewiesen werden.
The thesis assesses the contribution of technology option of Carbon Capture and Sequestration (CCS) to climate change mitigation. CCS means that CO2 is captured at large industrial facilities and sequestered in goelogical structures. The technology uses the endogenous growth model MIND. Herein the various climate change mitigation options of reducing economic growth, increasing energy efficiency, changing the energy mix and CCS are assessed simultaneously. An important question is whether CCS is a temporary or long-term solution. The results show that in the middle of the 21st century CCS has its peak contribution, which allows prolonged use of relatively cheap fossil energy carriers. However, this leads to delayed introduction of renewable energy carriers. The technology path ways are accombined with different costs of climate change mitigation. The use of CCS delays and reduces the costs of climate change mitigation. However, the delayed introduction of renewable energy carriers leads to reduced technological learning, which induces higher costs in the longer term. All in all the temporary use of CCS reduces the costs of climate change mitigation costs. The result is robust, which is tested with various uncertainty analysis.
Adsorption layers of soluble surfactants enable and govern a variety of phenomena in surface and colloidal sciences, such as foams. The ability of a surfactant solution to form wet foam lamellae is governed by the surface dilatational rheology. Only systems having a non-vanishing imaginary part in their surface dilatational modulus, E, are able to form wet foams. The aim of this thesis is to illuminate the dissipative processes that give rise to the imaginary part of the modulus. There are two controversial models discussed in the literature. The reorientation model assumes that the surfactants adsorb in two distinct states, differing in their orientation. This model is able to describe the frequency dependence of the modulus E. However, it assumes reorientation dynamics in the millisecond time regime. In order to assess this model, we designed a SHG pump-probe experiment that addresses the orientation dynamics. Results obtained reveal that the orientation dynamics occur in the picosecond time regime, being in strong contradiction with the two states model. The second model regards the interface as an interphase. The adsorption layer consists of a topmost monolayer and an adjacent sublayer. The dissipative process is due to the molecular exchange between both layers. The assessment of this model required the design of an experiment that discriminates between the surface compositional term and the sublayer contribution. Such an experiment has been successfully designed and results on elastic and viscoelastic surfactant provided evidence for the correctness of the model. Because of its inherent surface specificity, surface SHG is a powerful analytical tool that can be used to gain information on molecular dynamics and reorganization of soluble surfactants. They are central elements of both experiments. However, they impose several structural elements of the model system. During the course of this thesis, a proper model system has been identified and characterized. The combination of several linear and nonlinear optical techniques, allowed for a detailed picture of the interfacial architecture of these surfactants.
This study is analysing the transformation of Slovak administration in the telecommunication sector between 1989 and 2004. The dynamic telecom sector forms a good example for the transition problems of post-socialist administration with special regard to the regulation regime change. After describing briefly the role of the telecom sector within economy, the Slovak sectoral policy is analysed. The focus is layed on telecom legislation (including the regulation framework), liberalization of the telecom market and privatisation of the former state owned telecom operator. The transformation of the organizational structure of the "Slovak telecommunication administration" is analysed in particular at the level of the ministry and the regulating agency.
Existing theoretical literature fails to explain satisfactorily the differences between the pay of workers that are covered by collective agreements and others who are not. This study aims at providing a model framework which is amenable for an analysis of this issue. Our general-equilibrium approach integrates a dual labor market and a two-sector product market. The results suggest that the so-called 'union wage gap' is largely determined by the degree of centralization of the bargains, and, to a somewhat lesser extent, by the expenditure share of the unionized sector's goods.
Post-translational redox-regulation is a well-known mechanism to regulate enzymes of the Calvin cycle, oxidative pentose phosphate cycle, NADPH export and ATP synthesis in response to light. The aim of the present thesis was to investigate whether a similar mechanism is also regulating carbon storage in leaves. Previous studies have shown that the key-regulatory enzyme of starch synthesis, ADPglucose pyrophosphorylase (AGPase) is inactivated by formation of an intermolecular disulfide bridge between the two catalytic subunits (AGPB) of the heterotetrameric holoenzyme in potato tubers, but the relevance of this mechanism to regulate starch synthesis in leaves was not investigated. The work presented in this thesis shows that AGPase is subject to post-translational redox-regulation in leaves of pea, potato and Arabidopsis in response to day night changes. Light was shown to trigger posttranslational redox-regulation of AGPase. AGPB was rapidly converted from a dimer to a monomer when isolated pea chloroplasts were illuminated and from a monomer to a dimer when preilluminated leaves were darkened. Conversion of AGPB from dimer to monomer was accompanied by an increase in activity due to changes in the kinetik properties of the enzyme. Studies with pea chloroplast extracts showed that AGPase redox-activation is mediated by thioredoxins f and m from spinach in-vitro. In a further set of experiments it was shown that sugars provide a second input leading to AGPase redox activation and increased starch synthesis and that they can act as a signal which is independent from light. External feeding of sugars such as sucrose or trehalose to Arabidopsis leaves in the dark led to conversion of AGPB from dimer to monomer and to an increase in the rate of starch synthesis, while there were no significant changes in the level of 3PGA, an allosteric activator of the enyzme, and in the NADPH/NADP+ ratio. Experiments with transgenic Arabidopsis plants with altered levels of trehalose 6-phosphate (T6P), the precursor of trehalose synthesis, provided genetic evidence that T6P rather than trehalose is leading to AGPase redox-activation. Compared to Wt, leaves expressing E.coli trehalose-phosphate synthase (TPS) in the cytosol showed increased activation of AGPase and higher starch level during the day, while trehalose-phosphate phosphatase (TPP) overexpressing leaves showed the opposite. These changes occurred independently of changes in sugar and sugar-phosphate levels and NADPH/NADP+ ratio. External supply of sucrose to Wt and TPS-overexpressing leaves led to monomerisation of AGPB, while this response was attenuated in TPP expressing leaves, indicating that T6P is involved in the sucrose-dependent redox-activation of AGPase. To provide biochemical evidence that T6P promotes redox-activation of AGPase independently of cytosolic elements, T6P was fed to intact isolated chloroplasts for 15 min. incubation with concentrations down to 100 µM of T6P, but not with sucrose 6-phosphate, sucrose, trehalose or Pi as controls, significantly and specifically increased AGPB monomerisation and AGPase activity within 15 minutes, implying T6P as a signal reporting the cytosolic sugar status to the chloroplast. The response to T6P did not involve changes in the NADPH/NADP+ ratio consistent with T6P modulating redox-transfer to AGPase independently of changes in plastidial redox-state. Acetyl-CoA carboxylase (ACCase) is known as key-regulatory enzyme of fatty acid and lipid synthesis in plants. At the start of the present thesis there was mainly in vitro evidence in the literature showing redox-regulation of ACCase by DTT, and thioredoxins f and m. In the present thesis the in-vivo relevance of this mechanism to regulate lipid synthesis in leaves was investigated. ACCase activity measurement in leaf tissue collected at the end of the day and night in Arabidopsis leaves revealed a 3-fold higher activation state of the enzyme in the light than in the dark. Redox-activation was accompanied by change in kinetic properties of ACCase, leading to an increase affinity to its substrate acetyl-CoA . In further experiments, DTT as well as sucrose were fed to leaves, and both treatments led to a stimulation in the rate of lipid synthesis accompanied by redox-activation of ACCase and decrease in acetyl-CoA content. In a final approach, comparison of metabolic and transcript profiling after DTT feeding and after sucrose feeding to leaves provided evidence that redox-modification is an important regulatory mechanism in central metabolic pathways such as TCA cycle and amino acid synthesis, which acts independently of transcript levels.
Der bemerkenswerte Transformationspfad der zentralstaatlichen Verwaltung in Estland von der Sowjetbürokratie hin zum mustergültigen EU-Beitrittsland wird anhand des Landwirtschaftsministeriums beschrieben. Für dieses Gebiet gibt es im Gegensatz zu den bekannteren und gut recherchierten Aspekten der Transformation wie Demokratisierung, Wirtschaftsumbau und Außenpolitik noch keine Fallstudie. Daher wird hier die Entwicklung der staatlichen Verwaltung im Zeitverlauf anhand des Wandels der estnischen Agrarpolitik und Landwirtschaftsverwaltung nachvollzogen. Am Ende werden Schlussfolgerungen formuliert und verdeutlicht, dass viele Erkenntnisse über das eigentliche Untersuchungsland hinausgehen und ebenso für andere Transformationsländer in MOE gelten.
Im Rahmen dieser Arbeit wurde ein besseres Verständnis der Kopplung der Troposphäre und der Stratosphäre in den mittleren und polaren Breiten der Nordhemisphäre (NH) auf Monatszeitskalen erzielt, die auf die Ausbreitung von quasi-stationären Wellen zurückzuführen ist. Der Schwerpunkt lag dabei auf den dynamisch aktiven Wintermonaten, welche die grösste Variabilität aufweisen. Die troposphärische Variabilität wird zum Grossteil durch bevorzugte Zirkulationsstrukturen, den Telekonnexionsmustern, bestimmt. Mittels einer rotierten EOF-Analyse der geopotenziellen Höhe in 500 hPa wurden die wichtigsten regionalen troposphärischen Telekonnexionsmuster der Nordhemisphäre berechnet. Diese lassen sich drei grossen geografischen Regionen zuordnen; dem nordatlantisch-europäischen Raum, Eurasien und dem pazifisch-nordamerikanischen Raum. Da es sich um die stärksten troposphärischen Variabilitätsmuster handelt, wurden sie als grundlegende troposphärische Grössen herangezogen, um dynamische Zusammenhänge zwischen der troposphärischen und der stratosphärischen Zirkulation zu untersuchen. Dabei wurde anhand von instantanen und zeitverzögerten Korrelationsanalysen der troposphärischen Muster mit stratosphärischen Variablen erstmalig gezeigt, dass unterschiedliche regionale troposphärische Telekonnexionsmuster unterschiedliche Auswirkungen auf die stratosphärische Zirkulation haben. Es ergaben sich für die pazifisch-nordamerikanischen Muster signifikante instantane Korrelationen mit quasi-barotropen Musterstrukturen und für die nordatlantisch-europäischen Muster zonalsymmetrische Ringstrukturen ab 1978 mit signifikanten Korrelationswerten über tropischen und subtropischen Breiten und inversen Korrelationswerten über polaren Gebieten. Bei einer Untersuchung des Einflusses der stratosphärischen Variabilität wurde gezeigt, dass sich die stärkste Kopplung von nordatlantisch-europäischen Telekonnexionsmustern mit der stratosphärischen Zirkulation bei einem in Richtung Europa verschobenen Polarwirbel ergibt, wodurch die signifikanten Korrelationen ab 1978 erklärt werden können. Eine zonal gemittelte und vor allem lokale Untersuchung der Wellenausbreitungsbedingungen während dieser stratosphärischen Situation zeigt, dass es zu schwächeren Windgeschwindigkeiten in der Stratosphäre im Bereich von Nordamerika und des westlichen Nordatlantiks kommt und sich dadurch die Wellenausbreitungsbedingungen in diesem geografischen Bereich für planetare Wellen verbessern. Durch die stärkere Wellenausbreitung kommt es zu einer stärkeren Wechselwirkung mit dem Polarjet, wobei dieser abgebremst wird. Diese Abbremsung führt zu einer Verstärkung der meridionalen Residualzirkulation. D. h., wenn es zu einer verstärkten Wellenanregung im Nordatlantik und über Europa kommt, ist die Reaktion der Residualzirkulation bei einem nach Europa verschobenem Polarwirbel besonders stark. Die quasi-barotropen Korrelationsstrukturen, die sich bei den pazifisch-nordamerikanischen Mustern zeigen, weisen aufgrund von abnehmenden Störungsamplituden mit zunehmender Höhe, keiner Westwärtsneigung und einem negativen Brechungsindex im Pazifik auf verschwindende Wellen hin, die als Lösung der Wellengleichung bei negativem Brechungsindex auftreten. Dies wird durch den Polarjet, der im Bereich des Pazifiks stets sehr weit in Richtung Norden verlagert ist, verursacht. Abschliessend wurde in dieser Arbeit untersucht, ob die gefundenen Zusammenhänge von nordatlantisch-europäischen Telekonnexionsmustern mit der stratosphärischen Zirkulation auch von einem Atmosphärenmodell wiedergegeben werden können. Dazu wurde ein transienter 40-Jahre-Klimalauf des ECHAM4.L39(DLR)/CHEM Modells mit möglichst realistischen Antrieben erstmalig auf die Kopplung der Troposphäre und der Stratosphäre analysiert. Dabei konnten sowohl die troposphärischen, als auch die stratosphärischen Variabilitätsmuster vom Modell simuliert werden. Allerdings zeigen sich in den stratosphärischen Mustern Phasenverschiebungen in den Wellenzahl-1-Strukturen und ihre Zeitreihen weisen keinen signifikanten Trend ab 1978 auf. Die Kopplung der nordatlantisch-europäischen Telekonnexionsmuster mit der stratosphärischen Zirkulation zeigt eine wesentlich schwächere Reaktion der meridionalen Residualzirkulation. Somit stellte sich heraus, dass insbesondere die stratosphärische Zirkulation im Modell starke Diskrepanzen zu den Beobachtungen zeigt, die wiederum Einfluss auf die Wellenausbreitungsbedingungen haben. Es wird damit deutlich, dass für eine richtige Wiedergabe der Wellenausbreitung und somit der Kopplung der Troposphäre und Stratosphäre die stratosphärische Zirkulation eine wichtige Rolle spielt.
Mit diesem Beitrag möchten wir aufzeigen, welchen Stellenwert psycho-physiologische Erhebungen in der Diagnostik von Fähigkeiten, Fertigkeiten und Verhaltensweisen haben. Über solche Verfahren lassen sich Stresserleben und negative Beanspruchungen zeitiger erkennen als durch Beobachtungen und Befragungen. Im Rahmen einer Pilotstudie zum Belastungserleben von Schulkindern wurden von uns Daten mittels standardisierter Fragebögen und physiologischer Messungen erhoben. Wir haben zunächst psycho-physiologische Beanspruchungszustände von Grundschulkindern im Tagesverlauf erfasst, weil der circadiane Rhythmus die prinzipielle Grundlage für alle Lebens- und Lernprozesse darstellt. Darauf basieren weiterführende Untersuchungen zu situations- und anforderungsbezogenen Beanspruchungen von Schülerinnen und Schülern, die schließlich auf das Erfassen von Beziehungen zwischen psycho-physiologischen Zuständen und Verhaltensbeobachtungen gerichtet sind. In diesem Beitrag werden Ergebnisse aus 24-Stunden-Messungen vorgestellt.
Im Rahmen eines Forschungsprojekts zur Belastung und Beanspruchung von Kindern und Jugendlichen führten die Autorinnen Untersuchungen zur Entspannungsfähigkeit von nicht behinderten und behinderten Schülerinnen und Schülern durch. Die Fähigkeit zur Entspannung wird als wichtige Voraussetzung für die Entwicklung von Leiszungsfähigkeit, Wohlbefinden und Gesundheit angesehen. Zugleich wird davon ausgegangen, dass es einen unmittelbaren Zusammenhang zwischen psychosomatischen Auffälligkeiten und dem biologisch verankerten Reaktionsmuster Entspannung gibt. In drei unterschiedlichen Versuchsgruppen werden dazu physiologische Parameter mittels Blutdruck- und Hautwiderstandsmessungen erhoben. Die Untersuchungsergebnisse lassen Schlussfolgerungen für eine veränderte Unterrichts- und Lernprozessgestaltung zu.
In vergleichenden Untersuchungen zum Belastungserleben von Schulkindern wird dargestellt, welche Einschätzungen nicht behinderte und lernbehinderte Schülerinnen und Schüler bezüglich ihrer Belastung in schulischen und außer- schulischen Situationen vornehmen. In einem Gruppenvergleich wird herausgearbeitet, inwieweit gemeinsamer Unterricht in einer Allgemeinen Schule vs. dem Unterricht in einer Sonderschule zu Angst- und Stresserleben führt. Diese subjektiv bewussten Einschätzungen der Schülerinnen und Schüler werden mit Ergebnissen aus physiologischen Messungen verglichen, die im Heft 12/ 2002 dieser Zeitschrift dargestellt wurden.
Biologische Zeitstrukturen spielen im Tagesrhythmus eines jeden Menschen eine große Rolle und beeinflussen die Leistungsfähigkeit maßgeblich. In diesem Beitrag, der Teilergebnis einer Pilotstudie ist, wird dargestellt, wie mit Hilfe von Messungen des Hautwiderstandes dragestellt werden kann, in welchem Beanspruchungszustand lernbehinderte und nicht behinderte Grundschulkinder während eines Tages sind.
Modern biological analysis techniques supply scientists with various forms of data. One category of such data are the so called "expression data". These data indicate the quantities of biochemical compounds present in tissue samples. Recently, expression data can be generated at a high speed. This leads in turn to amounts of data no longer analysable by classical statistical techniques. Systems biology is the new field that focuses on the modelling of this information. At present, various methods are used for this purpose. One superordinate class of these methods is machine learning. Methods of this kind had, until recently, predominantly been used for classification and prediction tasks. This neglected a powerful secondary benefit: the ability to induce interpretable models. Obtaining such models from data has become a key issue within Systems biology. Numerous approaches have been proposed and intensively discussed. This thesis focuses on the examination and exploitation of one basic technique: decision trees. The concept of comparing sets of decision trees is developed. This method offers the possibility of identifying significant thresholds in continuous or discrete valued attributes through their corresponding set of decision trees. Finding significant thresholds in attributes is a means of identifying states in living organisms. Knowing about states is an invaluable clue to the understanding of dynamic processes in organisms. Applied to metabolite concentration data, the proposed method was able to identify states which were not found with conventional techniques for threshold extraction. A second approach exploits the structure of sets of decision trees for the discovery of combinatorial dependencies between attributes. Previous work on this issue has focused either on expensive computational methods or the interpretation of single decision trees a very limited exploitation of the data. This has led to incomplete or unstable results. That is why a new method is developed that uses sets of decision trees to overcome these limitations. Both the introduced methods are available as software tools. They can be applied consecutively or separately. That way they make up a package of analytical tools that usefully supplement existing methods. By means of these tools, the newly introduced methods were able to confirm existing knowledge and to suggest interesting and new relationships between metabolites.
Durch die Stilllegung der Kali-Gewinnung und -Produktion zwischen 1990 und 1993 sowie die begonnene Rekultivierung der Kali-Rückstandshalden haben sich die Salzfrachteintragsbedingungen für die Fließgwewässer im "Südharz-Kalirevier" in Thüringen zum Teil deutlich verändert. Aufgrund erheblich geringerer Salzeinträge in die Vorfluter Wipper und Bode ist es möglich geworden, zu einer ökologisch verträglichen Salzfrachtsteuerung überzugehen. Die Komplexität der zugrunde liegenden Stofftransportprozesse im Einzugsgebiet der Wipper macht es jedoch unumgänglich, den Steuerungsvorgang nicht nur durch reine Bilanzierungsvorgänge auf der betrachteten Steuerstrecke zu erfassen (so wie bisher praktiziert), sondern auch die Abflussdynamik im Fließgewässer und den Wasserhaushalt im Gebiet mit einzubeziehen. Die Ergebnisse dieser Arbeit dienen zum einen einer Vertiefung der Prozessverständnisse und der Interaktion von Wasserhaushalt, Abflussbildung sowie Stofftransport in bergbaubeeinflussten Einzugsgebieten am Beispiel der Unstrut bzw. ihrer relevanten Nebenflüsse. Zum anderen sollen sie zur Analyse und Bewertung eines Bewirtschaftungsplanes für die genannten Fließgewässer herangezogen werden können. Ziel dieser Arbeit ist die Erstellung eines prognosetauglichen Steuerungsinstrumentes, das für die Bewirtschaftung von Flusseinzugsgebieten unterschiedlicher Größe genutzt und unter den Rahmenbedingungen der bergbaubedingten salinaren Einträge effektiv zur Steuerung der anthropogenen Frachten eingesetzt werden kann. Die Quellen der anthropogen eingeleiteten Salzfracht sind vor allem die Rückstandshalden der stillgelegten Kaliwerke. Durch Niederschläge entstehen salzhaltige Haldenabwässer, die zum Teil ungesteuert über oberflächennahe Ausbreitungsvorgänge direkt in die Vorfluter gelangen, ein anderer Teil wird über die Speichereinrichtungen gefasst und gezielt abgestoßen. Durch Undichtigkeiten des Laugenstapelbeckens in Wipperdorf gelangen ebenfalls ungesteuerte Frachteinträge in die Wipper. Ein weiterer Eintragspfad ist zudem die geogene Belastung. Mit Hilfe detaillierter Angaben zu den oben genannten Eintragspfaden konnten Modellrechnungen im Zeitraum von 1992 bis 2003 durchgeführt werden. Durch die Ausarbeitung eines neuartigen Steuerungskonzeptes für das Laugenstapelbecken Wipperdorf, war es nun möglich, die gefasste Haldenlauge entsprechend der aktuellen Abflusssituation gezielt abstoßen zu können. Neben der modelltechnischen Erfassung der aktuellen hydrologischen Situation und der Vorgabe eines Chlorid-Konzentrationssteuerzieles für den Pegel Hachelbich, mussten dabei weitere Randbedingungen (Beckenkapazität, Beckenfüllstand, Mindestfüllstand, Kapazität des Ableitungskanals, usw.) berücksichtigt werden. Es zeigte sich, dass unter Anwendung des Steuerungskonzeptes die Schwankungsbreite der Chloridkonzentration insgesamt gesehen deutlich verringert werden konnte. Die Überschreitungshäufigkeiten bezüglich eines Grenzwertes von 2 g Chlorid/l am Pegel Hachelbich fielen deutlich, und auch die maximale Dauer einer solchen Periode konnte stark verkürzt werden. Kritische Situationen bei der modelltechnischen Frachtzusteuerung traten nur dann auf, wenn Niedrigwasserverhältnisse durch die Simulationsberechnungen noch unterschätzt wurden. Dies hatte deutliche Überschreitungen der Zielvorgaben für den Pegel Hachelbich zur Folge. Mit Hilfe des Steuerungsalgorithmus konnten desweiteren auch Szenarienberechnungen durchgeführt werden, um die Auswirkungen zukünftig zu erwartender Salzfrachten näher spezifizieren zu können. Dabei konnte festgestellt werden, dass Abdichtungsmaßnahmen der Haldenkörper sich direkt positiv auf die Entwicklung der Konzentration in Hachelbich auswirkten. Durch zusätzlich durchgeführte Langzeitszenarien konnte darüber hinaus nachgewiesen werden, dass langfristig eine Grenzwertfestlegung auf 1,5 g Chlorid/l in Hachelbich möglich ist, und die Stapelkapazitäten dazu ausreichend bemessen sind.
The Reversible Addition Fragmentation Chain Transfer (RAFT) process using the new RAFT agent benzyldithiophenyl acetate is shown to be a powerful polymerization tool to synthesize novel well-defined amphiphilic diblock copolymers composed of the constant hydrophobic block poly(butyl acrylate) and of 6 different hydrophilic blocks with various polarities, namely a series of non-ionic, non-ionic comb-like, anionic and cationic hydrophilic blocks. The controlled character of the polymerizations was supported by the linear increase of the molar masses with conversion, monomodal molar mass distributions with low polydispersities and high degrees of end-group functionalization. The new macro-surfactants form micelles in water, whose size and geometry strongly depend on their composition, according to dynamic and static light scattering measurements. The micellization is shown to be thermodynamically favored, due to the high incompatibility of the blocks as indicated by thermal analysis of the block copolymers in bulk. The thermodynamic state in solution is found to be in the strong or super strong segregation limit. Nevertheless, due to the low glass transition temperature of the core-forming block, unimer exchange occurs between the micelles. Despite the dynamic character of the polymeric micellar systems, the aggregation behavior is strongly dependent on the history of the sample, i.e., on the preparation conditions. The aqueous micelles exhibit high stability upon temperature cycles, except for an irreversibly precipitating block copolymer containing a hydrophilic block exhibiting a lower critical solution temperature (LCST). Their exceptional stability upon dilution indicates very low critical micelle concentrations (CMC) (below 4∙10<sup>-4 g∙L<sup>-1). All non-ionic copolymers with sufficiently long solvophobic blocks aggregated into direct micelles in DMSO, too. Additionally, a new low-toxic highly hydrophilic sulfoxide block enables the formation of inverse micelles in organic solvents. The high potential of the new polymeric surfactants for many applications is demonstrated, in comparison to reference surfactants. The diblock copolymers are weakly surface-active, as indicated by the graduate decrease of the surface tension of their aqueous solutions with increasing concentration. No CMC could be detected. Their surface properties at the air/water interface confer anti-foaming properties. The macro-surfactants synthesized are surface-active at the interface between two liquid phases, too, since they are able to stabilize emulsions. The polymeric micelles are shown to exhibit a high ability to solubilize hydrophobic substances in water.
Quantified Boolean formulas (QBFs) play an important role in theoretical computer science. QBF extends propositional logic in such a way that many advanced forms of reasoning can be easily formulated and evaluated. In this dissertation we present our ZQSAT, which is an algorithm for evaluating quantified Boolean formulas. ZQSAT is based on ZBDD: Zero-Suppressed Binary Decision Diagram , which is a variant of BDD, and an adopted version of the DPLL algorithm. It has been implemented in C using the CUDD: Colorado University Decision Diagram package. The capability of ZBDDs in storing sets of subsets efficiently enabled us to store the clauses of a QBF very compactly and let us to embed the notion of memoization to the DPLL algorithm. These points led us to implement the search algorithm in such a way that we could store and reuse the results of all previously solved subformulas with a little overheads. ZQSAT can solve some sets of standard QBF benchmark problems (known to be hard for DPLL based algorithms) faster than the best existing solvers. In addition to prenex-CNF, ZQSAT accepts prenex-NNF formulas. We show and prove how this capability can be exponentially beneficial.
Im vorliegenden Buch werden die Grundlagen der Förderung von Kindern mit bereichsübergreifenden Lernstörungen dargestellt. Im Blickfeld stehen zunächst die Charakterisierung der Zielgruppe (Definition, Klassifikation, Ursachen- und Entstehungsmodelle) und lern-lehrtheoretische Grundlagen. Den größten Raum nehmen die vorbereitende und begleitende Diagnostik und die Planung und Durchführung der Förderung ein. Die Ergebnisse eines mehrjährigen Forschungsprogramms des Autors tragen dazu bei zu erkennen, wenn Lernangebote bei einem Kind nicht erfolgreich sind, und ein Programm zu gestalten, die Lernentwicklung dieses Kindes voran bringt. Für die Diagnostik und den Förderunterricht, die Motivationsförderung und die Entwicklung der Lernfähigkeit finden sich zahlreiche erprobte Handlungsvorschläge. Die Publikation ist als Praxishandbuch und Anregung für die Reflexion und Weiterentwicklung der Förderkompetenz konzipiert.
This work explores the equilibrium structure and thermodynamic phase behavior of complexes formed by charged polymer chains (polyelectrolytes) and oppositely charged spheres (macroions). Polyelectrolyte-macroion complexes form a common pattern in soft-matter physics, chemistry and biology, and enter in numerous technological applications as well. From a fundamental point of view, such complexes are interesting in that they combine the subtle interplay between electrostatic interactions and elastic as well as entropic effects due to conformational changes of the polymer chain, giving rise to a wide range of structural properties. This forms the central theme of theoretical studies presented in this thesis, which concentrate on a number of different problems involving strongly coupled complexes, i.e. complexes that are characterized by a large adsorption energy and small chain fluctuations. In the first part, a global analysis of the structural phase behavior of a single polyelectrolyte-macroion complex is presented based on a dimensionless representation, yielding results that cover a wide range of realistic system parameters. Emphasize is made on the interplay between the effects due to the polyelectrolytes chain length, salt concentration and the macroion charge as well as the mechanical chain persistence length. The results are summarized into generic phase diagrams characterizing the wrapping-dewrapping behavior of a polyelectrolyte chain on a macroion. A fully wrapped chain state is typically obtained at intermediate salt concentrations and chain lengths, where the amount of polyelectrolyte charge adsorbed on the macroion typically exceeds the bare macroion charge leading thus to a highly overcharged complex. Perhaps the most striking features occur when a single long polyelectrolyte chain is complexed with many oppositely charged spheres. In biology, such complexes form between DNA (which carries the cell's genetic information) and small oppositely charged histone proteins serving as an efficient mechanism for packing a huge amount of DNA into the micron-size cell nucleus in eucaryotic cells. The resultant complex fiber, known as the chromatin fiber, appears with a diameter of 30~nm under physiological conditions. Recent experiments indicate a zig-zag spatial arrangement for individual DNA-histone complexes (nucleosome core particles) along the chromatin fiber. A numerical method is introduced in this thesis based on a simple generic chain-sphere cell model that enables one to investigate the mechanism of fiber formation on a systematic level by incorporating electrostatic and elastic contributions. As will be shown, stable complex fibers exhibit an impressive variety of structures including zig-zag, solenoidal and beads-on-a-string patterns, depending on system parameters such as salt concentration, sphere charge as well as the chain contour length (per sphere). The present results predict fibers of compact zig-zag structure within the physiologically relevant regime with a diameter of about 30~nm, when DNA-histone parameters are adopted. In the next part, a numerical method is developed in order to investigate the role of thermal fluctuations on the structure and thermodynamic phase behavior of polyelectrolyte-macroion complexes. This is based on a saddle-point approximation, which allows to describe the experimentally observed reaction (or complexation) equilibrium in a dilute solution of polyelectrolytes and macroions on a systematic level. This equilibrium is determined by the entropy loss a single polyelectrolyte chain suffers as it binds to an oppositely charged macroion. This latter quantity can be calculated from the spectrum of polyelectrolyte fluctuations around a macroion, which is determined by means of a normal-mode analysis. Thereby, a stability phase diagram is obtained, which exhibits qualitative agreement with experimental findings. At elevated complex concentrations, one needs to account for the inter-complex interactions as well. It will be shown that at small separations, complexes undergo structural changes in such a way that positive patches from one complex match up with negative patches on the other. Furthermore, one of the polyelectrolyte chains may bridge between the two complexes. These mechanisms lead to a strong inter-complex attraction. As a result, the second virial coefficient associated with the inter-complex interaction becomes negative at intermediate salt concentrations in qualitative agreement with recent experiments on solutions of nucleosome core particles.
Aufgrund des großen Verhältnisses von Oberfläche zu Volumen zeigen Nanopartikel interessante, größenabhängige Eigenschaften, die man im ausgedehnten Festkörper nicht beobachtet. Sie sind daher von großem wissenschaftlichem und technologischem Interesse. Die Herstellung kleinster Partikel ist aus diesem Grund überaus wünschenswert. Dieses Ziel kann mit Hilfe von Mikroemulsionen als Templatphasen bei der Herstellung von Nanopartikeln erreicht werden. Mikroemulsionen sind thermodynamisch stabile, transparente und isotrope Mischungen von Wasser und Öl, die durch einen Emulgator stabilisiert sind. Sie können eine Vielzahl verschiedener Mikrostrukturen bilden. Die Kenntnis der einer Mikroemulsion zugrunde liegenden Struktur und Dynamik ist daher von außerordentlicher Bedeutung, um ein gewähltes System potentiell als Templatphase zur Nanopartikelherstellung einsetzen zu können. In der vorliegenden Arbeit wurden komplexe Mehrkomponentensysteme auf der Basis einer natürlich vorkommenden Sojabohnenlecithin-Mischung, eines gereinigten Lecithins und eines Sulfobetains als Emulgatoren mit Hilfe der diffusionsgewichteten 1H-NMR-Spektroskopie unter Verwendung gepulster Feldgradienten (PFG) in Abhängigkeit des Zusatzes des Polykations Poly-(diallyl-dimethyl-ammoniumchlorid) (PDADMAC) untersucht. Der zentrale Gegenstand dieser Untersuchungen war die strukturelle und dynamische Charakterisierung der verwendeten Mikroemulsionen hinsichtlich ihrer potentiellen Anwendbarkeit als Templatphasen für die Herstellung möglichst kleiner Nanopartikel. Die konzentrations- und zeit-abhängige NMR-Diffusionsmessung stellte sich dabei als hervorragend geeignete und genaue Methode zur Untersuchung der Mikrostruktur und Dynamik in den vorliegenden Systemen heraus. Die beobachtete geschlossene Wasser-in-Öl- (W/O-) Mikrostruktur der Mikroemulsionen zeigt deutlich deren potentielle Anwendbarkeit in der Nanopartikelsynthese. Das Gesamtdiffusionsverhalten des Tensides wird durch variierende Anteile aus der Verschiebung gesamter Aggregate, der Monomerdiffusion im Medium bzw. der medium-vermittelten Oberflächendiffusion bestimmt. Dies resultierte in einigen Fällen in einer anormalen Diffusionscharakteristik. In allen Systemen liegen hydrodynamische und direkte Wechselwirkungen zwischen den Tensidaggregaten vor. Der Zusatz von PDADMAC zu den Mikroemulsionen resultiert in einer Stabilisierung der flüssigen Grenzfläche der Tensidaggregate aufgrund der Adsorption des Polykations auf den entgegengesetzt geladenen Tensidfilm und kann potentiell zu Nanopartikeln mit kleineren Dimensionen und schmaleren Größenverteilungen führen.
Der Himmel ist nicht Gott
(2003)
Die Theologie des 20. Jahrhunderts hat die Gegenstände “Himmel, Hölle, Engel” kaum zum Thema gemacht, und wenn doch, dann meist mit der Absicht, sie als mythologisches Beiwerk zu kritisieren oder in anthropologische Kategorien zu übersetzen. Das Eigenrecht einer Rede vom Himmel wurde bestritten, da dies allenfalls als analytische Bestimmung des Gottesbegriffes zu sehen sei und alle weiter gehenden Bestimmungen freie Spekulation seien. Hierfür wurden auch pastorale Gründe geltend gemacht: Wenn die modernen Menschen schon Schwierigkeiten mit dem Glauben haben, solle man sie nicht mit Zweitrangigem überfrachten. Und wenn man ihnen im technischen Zeitalter transzendente Gegenstände zumutet, dann höchstens Gott. Es komme darauf an, die Beziehung des Menschen zu Gott zu entdecken und zu stärken. Die Paradigmen für diese Beziehung waren meist zweipolig: Urvertrauen (Mutter-Säugling), Dialog (Ich und Du) oder Begegnung (Personen). In jüngerer Zeit wurden feinere Begriffsschärfungen vor allem im protestantischen Bereich vorgenommen. Der Systematiker Michael Welker hat auf die Differenz von Himmel und Gott hingewiesen. Vor dem Hintergrund der Prozessphilosophie, in der die Entfaltung des Kosmos mit dem Selbstvollzug Gottes deckungsgleich gedacht wird, hat er die Notwendigkeit dieser Unterscheidung betont: “Gott ist nicht der Himmel. Wir können nicht der Verwechslung von Gott und Welt durch die Verwechslung von Gott und einem Teil der Welt wehren. [...] Der Himmel ist Geschöpf und Teil der Welt. Dieser für uns relativ unbestimmte, unmanipulierbare Teil der Schöpfung kann räumlich und zeitlich bestimmt verstanden werden.” Hinter Welkers Ausführungen steht die im 20. Jahrhundert maßgebliche Thematisierung des Himmels, nämlich § 51 aus Karl Barths Kirchlicher Dogmatik. Barth bindet seine Reflexionen über den Himmel streng an die Offenbarung. Jede darüber hinaus gehende Spekulation über eine “selbständige Ontologie des Himmels” führe von Gott weg hinein in die Willkür möglicher Welten. Aus dem biblischen Zeugnis heraus gelte es, “geordnete Rechenschaft” abzulegen. Dennoch dürfe man nicht einer bequemen aufklärerischen Skepsis verfallen, die das Thema für theologisch irrelevant hält und darüber hinaus als unwissenschaftlich abtut; immerhin sei die Rede von Gott eng mit der Rede vom Himmel verknüpft. Der vorliegende Beitrag will die Notwendigkeit einer eigenständigen Kategorie „Himmel“ herausstellen. Dies geschieht nicht aus einem nostalgischen Interesse, aussterbende Glaubensinhalte zu konservieren, sondern weil der Begriff einer niedrigen, nichtgöttlichen Transzendenz systematisch notwendig ist. Zudem benötigt man ihn in der praktischen Theologie für eine differenzierte Wahrnehmung außerkirchlicher Religiosität, welche mit der De-Etablierung der Kirchen weiter zunehmen wird. Wie soll man mit vager Spiritualität vom Übersinnlichen, Himmlischen heute umgehen? Darf man sie mit Verweis auf dogmatische Hochgott-Begriffe glattweg ablehnen, darf man sie umgekehrt im Namen einer Universalreligion einfach akzeptieren? Wie kann man fremde Religiosität als Religiosität bejahen und sich dennoch davon kritisch absetzen? Die klare Unterscheidung von erster Transzendenz (Himmel) und zweiter Transzendenz (Gott) soll hierzu beitragen. Dabei wird der Akzent auf ersterer liegen, denn es ist theologisch unproblematisch, dass Gott das absolute Gegenüber zur Welt darstellt; wo aber der Himmel dazwischen zu platzieren ist, bedarf einer eingehenden Begriffsbestimmung. Als erstes wird die Reinigung des Begriffs von nichtreligiösen Konnotationen vorgenommen.
Mehr als bloß Bahala Na
(2003)
Theologie made in the Philippines fällt in der europäischen Wahrnehmung durch alle Raster. Für Befreiungstheologie schlägt man bei lateinamerikanischen Theologen nach, für Religionsdialog bei indischen. Wohin hat sich die philippinische Theologie seit den Zeiten der „Theologie des Kampfes“ entwickelt, als katholische Priester Vordenker der National People’s Army waren? Im Folgenden soll die Wende hin zur „popular religiosity“ nachgezeichnet werden. Nicht behandelt werden die kirchlichen Entwicklungen wie das einflussreiche Ereignis der Philippinischen Nationalsynode 1991 und die Veröffentlichung des Philippinischen Katechismus 1997.
Net Divide
(2004)
Ausgehend von einer Charakterisierung des Flow-Erlebens als gaenzliches Aufgehen in einem glatt laufenden Taetigkeitsvollzug, den man trotz hoher Beanspruchung noch unter Kontrolle hat, wird auf die Erfassung dieser Motivationskomponente eingegangen. Dargestellt und diskutiert werden Vor- und Nachteile der bisherigen qualitativen (Interviews) und quantitativen Flow-Erfassung (Experience Sampling Method (ESM)) . Ausfuehrlicher wird eine "Flow-Kurzskala" (FKS) beschrieben, die mit zehn Items alle qualitativ verschiedenen Komponenten des Flow-Erlebens oekonomisch und reliabel erfasst. Sie liefert einen Gesamtwert sowie Werte fuer zwei Subskalen (glatter automatisierter Verlauf sowie Absorbiertheit). Daneben erfassen drei zusaetzliche Items die Besorgnis in der aktuellen Situation. Berichtet werden Vergleichskennwerte aus punktuellen Messungen und ESM-Studien. Die hoechsten Werte fuer Flow und Besorgnis wurden bislang bei Graffiti-Sprayern gefunden. Bei einer intellektuell herausfordernden Aufgabe (Postkorbuebung) sind die FKS-Werte mit der Hoffnung-auf-Erfolg-Komponente des Leistungsmotivs korreliert. Furcht-vor-Misserfolg korreliert dagegen mit dem Besorgniswert der FKS. Flow waehrend der Bearbeitung von Uebungsaufgaben fuer Statistik lieferte einen signifikanten Beitrag zur Vorhersage der nachfolgenden Klausurleistung. Dieser Beitrag blieb erhalten, auch wenn Faehigkeitsmasse kontrolliert wurden. (Buch/A.G. - ZPID)
Berichtet wird über eine Möglichkeit, Flow-Erleben unter experimentell kontrollierten Bedingungen systematisch zu variieren. Dabei werden die Tätigkeit (das Computerspiel Roboguard) und die Situationsbedingungen konstant gehalten. Variiert wird lediglich die Schwierigkeitsstufe, auf der gespielt wird. Als abhängiges Maß wurde die Flow-Kurzskala (FKS, Rheinberg, Vollmeyer & Engeser, 2002) verwandt. Es zeigten sich die vorhergesagten kurvilinearen Beziehungen zwischen Anforderungsstufe und Flow mit Effektstärken um 1 und größer. Zusammenhänge zwischen habitueller Zielorientierung (Hayamizu & Weiner, 1991) und Flow zeigten sich nur bei den flow-auslösenden Schwierigkeitsstufen. Es gab keine negative Beziehung zwischen Zielorientierung und Flow, vielmehr korrelierten sowohl die learning- als auch die performance goal orientation positiv mit der Flowkomponente Absorbiertheit. Aus diesem Befund wird eine Arbeitshypothese zur Beziehung von Motivation und Flow hergeleitet, wonach unter optimalen Bedingungen Besonderheiten der Initialmotivation vielleicht dann keine Rolle mehr spielen, wenn die Person erst einmal im Flow-Zustand ist.
In den letzten 20 Jahren hat sich der Maiszünsler (Ostrinia nubilalis HÜBNER), aus der Schmetterlingsfamilie der Pyralidae oder Zünsler, zum bedeutendsten tierischen Schädling des Maises (Zea mays) entwickelt. Eine Möglichkeit den Befall des Maiszünslers abzuwenden, bietet der Anbau von Bacillus thuringiensis-Mais (Bt-Mais). Mit Hilfe der Gentechnik wurden Gene des Bakteriums Bacillus thuringiensis übertragen, die einen für Fraßinsekten giftigen Wirkstoff bilden, wodurch die Pflanzen während der kompletten Vegetation vor den Larven des Maiszünslers geschützt sind. Ziel des vorliegenden Projektes war es, in einer 3-jährigen Studie die Auswirkungen des großflächigen Anbaus von Bt-Mais auf die ökologische Situation und den Handlungsrahmen des integrierten Pflanzenschutzes komplex zu untersuchen. Dazu wurden in Betrieben im Oderbruch, das als permanentes Befallsgebiet des Maiszünslers gilt, in den Jahren 2002 bis 2004 jährlich zwei Felder mit jeweils einer Bt-Sorte und einer konventionellen Sorte angelegt. Zusätzlich wurden biologische und chemische Maiszünsler-Bekämpfungsvarianten geprüft. Durch verschiedene Methoden wie Bonituren, Ganzpflanzenernten, Bodenfallenfänge und Beobachtungen des Wahlverhaltens von (Flug-)insekten konnten Aussagen zum Vorkommen von Insekten und Spinnentieren getroffen werden, wobei hierfür Daten aus Untersuchungen der Jahre 2000 und 2001 im Oderbruch ergänzend herangezogen werden konnten. Durch Ertragsmessungen, Energie- und Qualitätsermittlungen, sowie Fusarium- und Mykotoxinanalysen konnte der Anbau von Bt-Mais als neue Alternative zur Bekämpfung des Maiszünslers bewertet werden. Bezüglich des Auftretens von Insekten und Spinnentieren wurden im Mittel der fünfjährigen Datenerhebung beim Vergleich der Bt-Sorte zur konventionellen Sorte, mit Ausnahme der fast 100 %igen Bekämpfung des Maiszünslers, keine signifikanten Unterschiede festgestellt. Hierfür wurde ein besonderes Augenmerk auf Thripse, Wanzen, Blattläuse und deren Fraßfeinde, sowie mittels Bodenfallenfängen auf Laufkäfer und Spinnen gerichtet. Die erwarteten ökonomischen Vorteile wie etwa Ertragsplus oder bessere Nährstoff- und Energiegehalte durch geringeren Schaden beim Anbau von Bt-Mais als Silomais blieben in den Untersuchungsjahren aus. Allerdings zeigten Fusarium- und Mykotoxinanalysen eine geringere Belastung des Bt-Maises, was möglicherweise auf den geringeren Schaden zurückzuführen ist, da beschädigte Pflanzen für Fusarium und Mykotoxine anfälliger sind. Desweiteren konnten erste methodische Ansätze für ein auf EU-Ebene gefordertes, den Anbau von Bt-Mais begleitendes Monitoring, erarbeitet werden. So konnten Vorschläge für geeignete Methoden, deren Umfang sowie des Zeitpunktes der Durchführungen gemacht werden.
Im kognitiv-motivationalen Prozessmodell des Lernens wird angenommen, dass der Lernerfolg von der Qualität und der Dauer ausgeführter Lernaktivitäten, aber auch vom Funktionszustand des Lerners während der Lernphase abhängt. Es wird vermutet, dass eine von mehreren Variablen des Funktionszustandes der Flow-Zustand während des Lernens ist. In einer Untersuchung in universitären Fremdsprachenkursen zeigte sich in der Tat, dass Flow-Erleben während des Unterrichts die späteren Lernleistungen auch dann vorhersagt, wenn der Leistungseffekt relevanter Lernkompetenzvariablen vorweg berücksichtigt wird. Gemäß dem kognitiv-motivationalen Prozessmodell wird Flow-Erleben seinerseits über die aktuelle Motivation vor der Lernphase vorhergesagt, wobei die wiederum von einer allgemeineren Motivationsvariablen zu Semesterbeginn abhängt. Diese Struktur wurde in einer zweiten Untersuchung repliziert und zwar an Studenten im Verlauf ihrer Statistikausbildung im Fach Psychologie. Beide Ergebnisse sprechen dafür, dass Flow- Erleben während des Lernens eine leistungsrelevante Variable des Funktionszustandes beim Lernen ist, die sich in ihrer Beziehungsstruktur erwartungsgemäß in das kognitivmotivationale Prozessmodell einpassen lässt.
In einer Laengsschnittstudie wird die Entwicklung von Motivationskomponenten zum Lernen in Mathematik von der fuenften bis zur neunten Klassenstufe untersucht. Motivationskomponenten wurden mit dem "Potsdamer Motivations-Inventar" erfasst, die Bezugsnormorientierung der Lehrer sowie das mathematisch-naturwissenschaftliche Anregungsklimas im Elternhaus mit eigens entwickelten Skalen. Daten wurden an einer Stichprobe von urspruenglich zirka 750 Schuelerinnen und Schuelern erhoben. An der dritten Erhebung nahmen nur noch etwa 600 von ihnen teil. Es zeigte sich, dass sich die Mathematiknote am Ende eines Schuljahres sehr gut durch die zu Schulbeginn erfassten Motivationskomponenten vorhersagen laesst. Waehrend das insgesamt geringe Angsterleben im Mathematikunterricht von der fuenften bis zur neunten Klasse stabil blieb, nahm das Sachinteresse kontinuierlich ab. Bei der Einschaetzung des mathematisch-naturwissenschaftlichen Anregungsklimas im Elternhaus fanden sich ueberraschenderweise grosse Unterschiede zwischen Kindern und Eltern. (U.B. - ZPID)
Abschlussbericht zum DFG-Projekt "Veränderung der Lernmotivation in Mathematik und Physik: eine Komponentenanalyse und der Einfluss elterlicher sowie schulischer Kontextfaktoren" Abstract: Dass die Lernmotivation besonders in mathematisch-naturwissenschaftlichen Fächern im Verlauf der Sekundarschulzeit sinkt, kann als gesichert gelten (Krapp, 1998). Allerdings ergibt sich bei genauerem Hinsehen ein recht differenziertes Bild. Dies betrifft insbesondere die verschiedenen Komponenten von Lernmotivation (z. B. Erfolgserwartungen, Nützlichkeiten/Instrumentalitäten, intrinsische vs. extrinsische Folgenanreize, Sachinteressen, Selbstkontrollfunktionen etc.), die offenbar nicht gleichermaßen betroffen sind. Weiterhin wurden auch unterschiedliche Veränderungen je nach Fach, Klassenstufe und Geschlecht gefunden (z. B. Fend, 1997; Pekrun, 1993). Überdies sind hier individuell unterschiedliche Verlaufstypen der Lernmotivationsveränderung zu erwarten (Fend, 1997; Rheinberg, 1980). Je nachdem, aufgrund welcher Komponenten ein Absinken der Lernmotivation zustande kommt, sind ganz andere Interventionsmaßnahmen angezeigt. Von daher ist ein Instrumentarium erforderlich, das die einzelnen Komponenten der Lernmotivation in mathematisch-naturwissenschaftlichen Fächern zu erfassen erlaubt. Ein solches Verfahren soll in einem zweijährigen Projekt theorieverankert entwickelt werden. Es stützt sich zunächst auf das Erweiterte Kognitive Modell zur Lernmotivation (Heckhausen & Rheinberg, 1980; Rheinberg, 1989), des weiteren auf Interessenkonzepte (Krapp, 1992, 1998) sowie auf die Handlungskontroll- bzw. die PSI-Theorie (Kuhl, 1987, 1998). Es soll die Lernmotivation in ihren Komponenten so erfassen, dass spezifische Interventionen hergeleitet bzw. schon bewährte fallbezogen platziert werden können. Solche Interventionen sind für mögliche Anschlussprojekte im DFG-Schwerpunktprogramm "Bildungsqualität" vorgesehen. In einem altersgestaffelten einjährigen Längsschnitt wird im jetzigen Projekt mit diesem Instrument die Veränderung dieser Komponenten in den Fächern Mathematik und Physik auf der Sekundarstufe I erhoben. Gewonnen werden dabei klassenstufenspezifische Veränderungen der Lernmotivationskomponenten sowie (via Typenanalysen) verschiedene Entwicklungstypen in der mathematisch-naturwissenschaftlichen Lernmotivation. Dies sind Basisinformationen, die für die Entwicklung, Platzierung und Effektsicherung nachfolgender Interventionsmaßnahmen benötigt werden. Um im Vorfeld zwei (von vielen) Ansatzpunkten solcher Interventionen näher abzuklären, wird bereits in der ersten Projektphase die Wirkung zweier Kontextfaktoren untersucht. Hier wird (a) das mathematisch-naturwissenschaftliche Anregungsklima des Elternhauses sowie (b) die Bezugsnorm-Orientierung des Mathematik- bzw. Physiklehrers erfasst. Von beiden Kontextfaktoren sind Auswirkungen auf spezifische Komponenten der mathematisch-naturwissenschaftlichen Lernmotivation zu erwarten. Dies ist jedoch vorweg genauer abzuklären, ehe man die Kosten von Interventionen investiert. Das Instrumentarium (PMI) wird von Mai bis September 2000 entwickelt. Die einjährige Längsschnittstudie beginnt dann im Oktober 2000. Geplant sind drei Messzeitpunkte jeweils auf den Klassenstufen 5 bis 9 (Kombiniertes Längs- und Querschnittdesign)
Untersucht wurde, welche Anreize das Graffiti-Sprayen attraktiv machen. Dazu wurden in einer Vorphase 138 Anreizschilderungen gesammelt und in einen Fragebogen mit 50 Items transformiert. N = 294 Graffiti-Sprayer beantworteten diesen Fragebogen teils online im Internet, teils anonym gestreut auf Graffiti- oder Hip-Hop-Events.Faktorenanalytisch ließen sich sieben Anreizdimensionen ermitteln: Expertise/Kompetenzorientierung, Positive Emotionen/Flow, Kreativität, Gruppengefühl, Ruhm/Performanzorientierung, Lebenssinn, Sensation Seeking/Grenzerfahrung.Legales vs. illegales Graffiti-Sprayen unterschieden sich deutlich im Faktor Sensation Seeking/Grenzerfahrung und tendenziell im Faktor Lebenssinn. Das gesondert erfasste Flow-Erleben ließ sich beim illegalen Sprayen am besten über den Faktor Sensation Seeking/Grenzerfahrung vorhersagen, während Flow beim legalen Graffiti-Sprayen am besten über den Faktor Ruhm/Performanzorientierung vorhersagbar war. Innerhalb der legalen bzw. illegalen Sprayer ließen sich noch verschiedene Motivationstypen unterscheiden. Mit Blick auf alterskorrelierte Anreizveränderungen ließen sich beim legalen Graffiti-Sprayen keine nennenswerten Zusammenhänge zwischen Alter und Anreizgewicht feststellen. Dagegen nimmt beim illegalen Sprayen insbesondere die Bedeutung des Sensation Seeking sowie der Leistungsthematik signifikant mit dem Alter ab. Da dies die wichtigsten Anreize des illegalen Sprayens sind, dürfte dieser alterskorrelierte Anreizverlust erklären, warum es kaum illegale Sprayer gibt, die älter als 21 Jahre sind. Aus zusätzlich frei genannten Anreizen gab es noch Hinweise auf eine weitere Anreizkategorie, nämlich die Freude an „aggressiver Provokation“. Diese Kategorie war aber eher schwach besetzt. Diskutiert werden u. a. Möglichkeiten, unerwünschtes Graffiti-Sprayen einzudämmen. Hierzu wird auf die Notwendigkeit von „Aussteigeranalysen“ (Längsschnittstudien) hingewiesen, die offenlegen, für welche kritischen Anreize man Ersatz finden muss, wenn man z. B. in Interventionsprojekten das Engagement auffällig gewordener Sprayer auf andere Tätigkeitsfelder lenken möchte.
Consumer attitudes towards genetically modified foods in Europe : structure and changeability
(2004)
Genetically modified foods have been at the center of debate in European consumer policy in the last two decades. Although the quasi-moratorium has been lifted in May 2004 and the road to the market is in principle reopened, strategies for product introduction are lacking. The aim of the research is to assess potential barriers in the area of consumer acceptance and suggest ways in which they can be overcome. After a short history of the genetically modified foods debate in Europe, the existing literature is reviewed. Although previous research converges in its central results, issues that are more fundamental have remained unresolved. Based on classical approaches in attitude research and modern theories of social cognition, a general model of the structure, function and dynamics of whole systems of attitudes is developed. The predictions of the model are empirically tested based on an attitude survey (N = 2000) and two attitude change experiments (N = 1400 and N = 750). All three studies were conducted in parallel in four EU member states. The results show that consumer attitudes towards genetically modified foods are embedded into a structured system of general socio-political attitudes. The system operates as a schema through which consumers form global evaluations of the technology. Specific risk and benefit judgments are mere epiphenomena of this process. Risk-benefit trade-offs, as often presupposed in the literature, do not appear to enter the process. The attitudes have a value-expressive function; their purpose is not just a temporary reduction of complexity. These properties render the system utterly resistant to communicative interventions. At the same time, it exerts stong anchoring effects on the processing of new information. Communication of benefit arguments can trigger boomerang effects and backfire on the credibility of the communicator when the arguments contrast with preexisting attitudes held by the consumer. Only direct sensory experience with high-quality products can partially bypass the system and lead to the formation of alternative attitude structures. Therefore, the recommended market introduction strategy for genetically modified foods is the simultaneous and coordinated launch of many high-quality products. Point of sale promotions should be the central instrument. Information campaigns, on the other hand, are not likely to have an effect on the product and technology acceptance of European consumers.
Homocystein (tHcy) gilt als unabhängiger kardiovaskulärer Risikofaktor und korreliert eng mit einer endothelialen Dysfunktion, welche nichtinvasiv mittels der flussinduzierten Vasodilatation (FMD) messbar ist. Experimentelle Hyperhomocysteinämie ist mit einer reduzierten Bioverfügbarkeit von endothelialen Stickstoffmonoxid (NO) bei gleichzeitig erhöhten Spiegeln des kompetetiven Inhibitors der NO-Biosynthese asymmetrisches Dimethylarginin (ADMA) assoziiert. In-vivo senkt eine Östrogenbehandlung neben tHcy auch die ADMA-Spiegel und verbessert signifikant die Endothelfunktion. Hinsichtlich ihrer Wirkung als selektive Östrogenrezeptormodulatoren wird angenommen, dass Phytoöstrogene, speziell Sojaisoflavone, ähnliche Effekte hervorrufen. Innerhalb einer europäischen, multizentrischen, doppelblinden Interventionsstudie an 89 gesunden, postmenopausalen Frauen wurde der Einfluss von Sojaisoflavonen auf den Homocysteinmetabolismus, den Blutdruck und die in-vivo Endothelfunktion untersucht. Die cross-over Studie umfasste zwei achtwöchige Interventionsperioden, die von einer gleichlangen Wash-out-Phase unterbrochen waren. Die Zuteilung zum Isoflavon- (50 mg/d) oder Plazeboregime für die erste Interventionsphase erfolgte randomisiert. Endpunkterhebungen fanden jeweils in den Wochen 0 und 8 der Interventionsperioden statt. Die renale Ausscheidung von Genistein, Daidzein und Equol war während der Isoflavonintervention signifikant erhöht (P>0,001). Die Phyoöstrogene hatten weder einen Effekt auf die tHcy-Konzentration (P=0,286), noch auf ADMA, Erythrozytenfolat und Vitamin B-12 (P>0,05) im Plasma. Während die Summe aus Nitrat und Nitrit (NOx), welche die NO-Bioverfügbarkeit reflektiert, im Verlaufe der Plazebobehandlung abfiel, wurde ein leichter Anstieg bei der Isoflavonsupplementation beobachtet (Delta Wo8-Wo0: -2,60 [-8,75; 2,25] vs. 1,00 [-6,65; 7,85] µmol/L P<0,001), was zu einem signifikanten Behandlungseffekt führte. Weiterhin wurde eine positive Korrelation zwischen ADMA und Vitamin B-12 gefunden (R=0,252; P=0,018). Die flussinduzierte Vasodilatation (P=0,716), ein Maß für die Endothelfunktion, blieb durch die Isoflavonbehandlung unbeeinflusst, obwohl sich diese über die Zeit insgesamt verbesserte (P>0,001). Bis auf einen marginalen Anstieg des systolischen Wertes (P=0,032) im Vergleich zur Plazebobehandlung blieb der Blutdruck während der Isoflavonintervention unverändert. Im Gegensatz zu Östrogen übten Sojaisoflavone weder einen Einfluss auf die in-vivo Endothelfunktion noch auf die traditionellen und neuen kardiovaskulären Risikofaktoren den Blutdruck, tHcy und ADMA aus. Demzufolge ist der gesundheitliche Nutzen isolierter Isoflavone hinsichtlich einer Prävention hormonmangelbedingter Erkrankungen in gesunden postmenopausalen Frauen fraglich.
Die Studie beschäftigt sich mit den Auswirkungen der von Deutschland geschlossenen bilateralen Investitionsschutzverträge (Bilateral Investment Treaties, BITs) auf die wirtschaftliche, soziale und ökologische Regulierung von ausländischen Investitionen. Die Analyse der 137 deutschen BITs sowie die Auswertung relevanter Schiedsgerichtsentscheidungen hat folgende zentrale Ergebnisse hinsichtlich der Einschränkung staatlicher Regulierungsmöglichkeiten ergeben: Aufgrund eines breiten Enteignungsbegriffs kann eine umweltpolitische Regulierung, die wirtschaftliche Auswirkungen auf ausländische Investoren hat, eine Verpflichtung zur Entschädigung nach sich ziehen, denn den deutschen BITs ist nicht klar zu entnehmen, dass staatliche Regulierung im Regelfall nicht als Enteignung gelten sollte. Empirisch kann weder eine Verbindung zwischen dem Abschluss von BITs und einem Anstieg des Investitionsvolumens noch ein Automatismus zwischen dem Zufluss von privatem Kapital und wirtschaftlicher Entwicklung hergestellt werden. Im Gegenteil sind sogar staatliche Maßnahmen, die für kapitalimportierende Länder eine Möglichkeit wären, den wirtschaftlichen Nutzen von ausländischen Investitionen zu erhöhen, durch Regelungen in den BITs untersagt. Problematisch im Bereich geistiges Eigentum ist, dass Rechtsinhaber vor einem internationalen Schiedsgericht Entschädigung einklagen können, wenn staatliche Regulierung im öffentlichen Interesse zu einem enteignungsgleichen Eingriff führt. Dienstleistungen unterliegen aufgrund ihrer Eigenschaften besonders stark der staatlichen Regulierung, so dass auch hier Konflikte bezüglich des Enteignungsschutzes und des Grundsatzes der gerechten und billigen Behandlung entstehen. Bei der Beteiligung privater Unternehmen in der Daseinsvorsorge ist problematisch, dass jede Verletzung vertraglicher Zusicherungen durch den Gaststaat aufgrund der Abschirmungsklausel als Verstoß gegen die deutschen BITs gilt. Damit erschweren die Verträge, die häufig über lange Zeiträume geschlossen sind, Reaktionen staatlicher Stellen auf neu auftretende Regulierungsbedürfnisse. Im Bereich des Arbeitnehmerschutzes und der Sozialpolitik kann in bestimmten Konstellationen die Verschärfung von Arbeitsstandards gegen die Abschirmungsklausel verstoßen oder die Umverteilung von Land ohne volle Entschädigung mit dem Enteignungsschutz in Konflikt geraten. Bei der Besteuerung ausländischer Investoren können insbesondere Widersprüchlichkeiten im Steuerrecht, die sich zuungunsten ausländischer Investoren auswirken, als Verstoß gegen den Grundsatz der Inländerbehandlung interpretiert werden, selbst wenn ihnen keine protektionistische Intention zugrunde liegt. Auch das Investor-to-State Verfahren trägt dazu bei, dass der Ausgleich zwischen Investitionsschutz und legitimen staatlichen Regulierungsinteressen teilweise nur unzureichend gelingt. Das liegt unter anderem an seiner Nichtöffentlichkeit, der fragmentarischen Natur der Entscheidungen und der fehlenden Nähe der Schiedsgerichte zu den tatsächlichen und rechtlichen Hintergründen der Streitigkeiten. Als Konsequenz aus den genannten Problembereichen werden Reformvorschläge für deutsche bilaterale Investitionsabkommen als ein erster Schritt zur Schaffung eines Gleichgewichts zwischen Investorenrechten und Investorenpflichten entwickelt. Durch eine Reform sollten den Gaststaaten größere Handlungsspielräume eröffnet und ihre Flexibilität erhöht werden, um den ökonomischen Nutzen ausländischer Investitionen für Entwicklungsländer zu steigern und allen Ländern eine Regulierung von Investitionen im öffentlichen Interesse zu ermöglichen.
Polymere sind zweifelsohne der Werkstoff in unserer Zeit. Ein bedeutender Anteil der heute industriell produzierten Polymere wird durch Emulsionspolymerisation hergestellt. Obwohl die Emulsionspolymerisation breite Anwendung findet, sind die involvierten Mechanismen von Teilchenbildung und -wachstum noch heute Gegenstand heftiger Kontroversen. Ein Spezialfall der Emulsionspolymerisation ist die emulgatorfreie Emulsionspolymerisation. Hierbei handelt es sich um ein scheinbar einfacheres System der Emulsionspolymerisation, weil diese Methode ohne Zusatz von Emulgatoren auskommt. Die Teilchenbildung ist ein fundamentaler Vorgang im Verlauf der Emulsionspolymerisation, da sie zur Ausbildung der polymeren Latexphase führt. Detaillierte Kenntnisse zum Mechanismus der Nukleierung ermöglichen eine bessere Kontrolle des Reaktionsverlaufes und damit der Eigenschaften des Endproduktes der Emulsionspolymerisation, dem Polymer-Latex. Wie bereits vorangegangene Arbeiten auf dem Gebiet der emulgatorfreien Emulsionspolymerisation von Styrol sowie Methylmethacrylat und Vinylacetat zeigen konnten, verläuft die Teilchenbildung in diesen Systemen über den Mechanismus der aggregativen Nukleierung. Im Zusammenhang mit den Ergebnissen der genannten Arbeiten tauchte dabei immer wieder ein interessanter Effekt im Bereich der Partikelnukleierung auf. Dieses als JUMBO-Effekt bezeichnete Phänomen zeigte sich reproduzierbar in einem Anstieg der Transmission im Bereich der Teilchenbildung von emulgatorfreien Emulsionspolymerisationen von Styrol, MMA und VAc. Nach der Initiierung der Polymerisation in einer wässrigen Monomerlösung durch Kaliumperoxodisulfat steigt die Durchlässigkeit bei 546 nm auf über 100 % an. Für diese „Abnahme der optischen Dichte“ wurden verschiedene Erklärungsmöglichkeiten vorgeschlagen, jedoch blieb ein Nachweis der Ursache für den JUMBO-Effekt bisher aus. Dieser Mangel an Aufklärung eines offenbar grundlegenden Phänomens in der emulgatorfreien Emulsionspolymerisation bildet den „Nukleus“ für die vorlie¬gende Arbeit. Durch die vorliegende Dissertation konnte das Verständnis für Phänomene der Teilchenbildung in der emulgatorfreien Emulsionspolymerisation von Styrol mit KPS erweitert werden. In diesem Rahmen wurde das Online-Monitoring des Polymerisationsvorganges verbessert und um verschiedene Methoden erweitert: Zur simultanen Erfassung von Trübungsdaten bei verschiedenen Wellenlängen konnte ein modernes Spektrometer in Kombination mit einer Lichtleitersonde in die Reaktionsapparatur integriert werden. Es wurde ein verbesserter Algorithmus zur Datenbearbeitung für die Partikelgrößenbestimmung mittels faseroptischer dynamischer Lichtstreuung entwickelt. Es wurden Online-Partikelgrößenanalysen mittels statischer Vielwinkellichtstreuung bei Polymerisationen direkt in entsprechenden Lichtstreuküvetten durchgeführt. Diese zur Beschreibung des untersuchten Systems eingeführten Methoden sowie ein zeitlich vollständiges Monitoring des gesamten Polymerisationsverlaufes, beginnend mit der Zugabe von Monomer zu Wasser, führten zu neuen Erkenntnissen zur emulgatorfreien Emulsionspolymerisation. Es wurden große Monomeraggregate, die sog. Nanotröpfchen, in wässriger Lösung (emulgatorfrei) nachgewiesen. Diese Aggregate bilden sich spontan und treten verstärkt in entgastem Wasser auf. Die Existenz von Nanotröpfchen in Verbindung mit Trübungs- und gaschromatografischen Messungen lässt auf eine molekular gelöste „Wirkkonzentration“ von Styrol in Wasser schließen, die bedeutend geringer ist als die absolute Sättigungskonzentration. Es konnten Hinweise auf eine Reaktion höherer Ordnung im System Wasser/Styrol/KPS gefunden werden. Es konnte gezeigt werden, dass eine präzise Einstellung der Nukleierungsdauer über die Zeit der Equilibrierung von Wasser mit Styrol möglich ist. Der JUMBO-Effekt, dem in dieser Arbeit ein besonderes Interesse galt, konnte in gewisser Weise entmystifiziert werden. Es konnte gezeigt werden, dass die Durchlässigkeit der Reaktionsmischung bereits beim Lösen von Styrol in Wasser durch Bildung von Styrolaggregaten abnimmt. Der darauf folgende kurzzeitige Transmissionsanstieg im Zusammenhang mit der Nukleierung erreicht dabei nicht mehr 100 % des Referenzwertes von reinem Wasser. Alle experimentellen Daten sprechen für die Nanotröpfchen als Ursache des JUMBO-Effekts. Wie die Ergebnisse dieser Arbeit zeigen, ist selbst das relativ „einfache“ System der emulgatorfreien Emulsionspolymerisation komplizierter als angenommen. Die Existenz von großen Styrolaggregaten in wässriger Lösung erfordert eine neue Betrachtungsweise des Reaktionssystems, in die auch der Lösungszustand des Monomers mit einbezogen werden muss.
Thema dieser Arbeit sind echtzeitfähige 3D-Renderingverfahren, die 3D-Geometrie mit über der Standarddarstellung hinausgehenden Qualitäts- und Gestaltungsmerkmalen rendern können. Beispiele sind Verfahren zur Darstellung von Schatten, Reflexionen oder Transparenz. Mit heutigen computergraphischen Software-Basissystemen ist ihre Integration in 3D-Anwendungssysteme sehr aufwändig: Dies liegt einerseits an der technischen, algorithmischen Komplexität der Einzelverfahren, andererseits an Ressourcenkonflikten und Seiteneffekten bei der Kombination mehrerer Verfahren. Szenengraphsysteme, intendiert als computergraphische Softwareschicht zur Abstraktion von der Graphikhardware, stellen derzeit keine Mechanismen zur Nutzung dieser Renderingverfahren zur Verfügung. Ziel dieser Arbeit ist es, eine Software-Architektur für ein Szenengraphsystem zu konzipieren und umzusetzen, die echtzeitfähige 3D-Renderingverfahren als Komponenten modelliert und es damit erlaubt, diese Verfahren innerhalb des Szenengraphsystems für die Anwendungsentwicklung effektiv zu nutzen. Ein Entwickler, der ein solches Szenengraphsystem nutzt, steuert diese Komponenten durch Elemente in der Szenenbeschreibung an, die die sichtbare Wirkung eines Renderingverfahrens auf die Geometrie in der Szene angeben, aber keine Hinweise auf die algorithmische Implementierung des Verfahrens enthalten. Damit werden Renderingverfahren in 3D-Anwendungssystemen nutzbar, ohne dass ein Entwickler detaillierte Kenntnisse über sie benötigt, so dass der Aufwand für ihre Entwicklung drastisch reduziert wird. Ein besonderer Augenmerk der Arbeit liegt darauf, auf diese Weise auch verschiedene Renderingverfahren in einer Szene kombiniert einsetzen zu können. Hierzu ist eine Unterteilung der Renderingverfahren in mehrere Kategorien erforderlich, die mit Hilfe unterschiedlicher Ansätze ausgewertet werden. Dies erlaubt die Abstimmung verschiedener Komponenten für Renderingverfahren und ihrer verwendeten Ressourcen. Die Zusammenarbeit mehrerer Renderingverfahren hat dort ihre Grenzen, wo die Kombination von Renderingverfahren graphisch nicht sinnvoll ist oder fundamentale technische Beschränkungen der Verfahren eine gleichzeitige Verwendung unmöglich machen. Die in dieser Arbeit vorgestellte Software-Architektur kann diese Grenzen nicht verschieben, aber sie ermöglicht den gleichzeitigen Einsatz vieler Verfahren, bei denen eine Kombination aufgrund der hohen Komplexität der Implementierung bislang nicht erreicht wurde. Das Vermögen zur Zusammenarbeit ist dabei allerdings von der Art eines Einzelverfahrens abhängig: Verfahren zur Darstellung transparenter Geometrie beispielsweise erfordern bei der Kombination mit anderen Verfahren in der Regel vollständig neuentwickelte Renderingverfahren; entsprechende Komponenten für das Szenengraphsystem können daher nur eingeschränkt mit Komponenten für andere Renderingverfahren verwendet werden. Das in dieser Arbeit entwickelte System integriert und kombiniert Verfahren zur Darstellung von Bumpmapping, verschiedene Schatten- und Reflexionsverfahren sowie bildbasiertes CSG-Rendering. Damit stehen wesentliche Renderingverfahren in einem Szenengraphsystem erstmalig komponentenbasiert und auf einem hohen Abstraktionsniveau zur Verfügung. Das System ist trotz des zusätzlichen Verwaltungsaufwandes in der Lage, die Renderingverfahren einzeln und in Kombination grundsätzlich in Echtzeit auszuführen.
Nachlässe sind persönliches Eigentum und unterliegen deshalb keiner Abgabepflicht. Der Wunsch des Nachlassers bezüglich der weiteren Aufbewahrung seines schriftlichen Erbes ist demzufolge primär gegenüber allen unseren Wünschen. Wir können nicht fordern, sondern nur bitten, uns durch eigene Leistungen anbieten und die zukünftigen Nachlassenden oder deren Erben überzeugen. Die nicht vorhandene institutionelle Zuständigkeit für die Übernahme von Nachlässen erzeugt die Reibungspunkte zwischen den Einrichtungen, die sich um den Erwerb von Nachlässen bemühen: Archive – Bibliotheken – Museen - Sammlungen. Die Wünsche zum Erwerb des Nachlasses einer bestimmten Person – egal ob Wissenschaftler, Künstler oder Politiker – sind demzufolge immer an verschiedenen Orten gleichzeitig vorhanden. Der Zufall entscheidet dann leider meist darüber, an welcher Stelle der Nachlass zukünftig verwahrt und wissenschaftlich genutzt wird. Es stellt sich die Frage, ob wir auf solche Zufälle hoffen und warten sollen, oder ob wir nicht eher eine engagierte – gemeinsam zwischen den Archiven abgestimmte - Erwerbspolitik betrieben sollten. ------------ Beiträge zum Thema "Nachlässe an Universitäts- und Hochschularchiven sowie Archiven wissenschaftlicher Institutionen" im Rahmen der Frühjahrstagung der Fachgruppe 8: "Archivare an Hochschularchiven und Archiven wissenschaftlicher Institutionen" am 16./17. Juni an der Universität Potsdam.