Refine
Year of publication
Document Type
- Article (36107)
- Doctoral Thesis (6536)
- Monograph/Edited Volume (5575)
- Postprint (3296)
- Review (2315)
- Part of a Book (1099)
- Other (973)
- Conference Proceeding (579)
- Preprint (569)
- Part of Periodical (531)
Language
- English (31137)
- German (26201)
- Spanish (365)
- French (330)
- Italian (115)
- Russian (113)
- Multiple languages (70)
- Hebrew (36)
- Portuguese (25)
- Polish (24)
Keywords
- Germany (209)
- climate change (182)
- Deutschland (146)
- machine learning (91)
- European Union (79)
- diffusion (78)
- Sprachtherapie (77)
- Migration (75)
- morphology (74)
- Logopädie (73)
Institute
- Institut für Biochemie und Biologie (5512)
- Institut für Physik und Astronomie (5472)
- Institut für Geowissenschaften (3688)
- Institut für Chemie (3494)
- Wirtschaftswissenschaften (2645)
- Historisches Institut (2528)
- Department Psychologie (2358)
- Institut für Mathematik (2161)
- Institut für Romanistik (2115)
- Sozialwissenschaften (1884)
Der Himmel ist nicht Gott
(2003)
Die Theologie des 20. Jahrhunderts hat die Gegenstände “Himmel, Hölle, Engel” kaum zum Thema gemacht, und wenn doch, dann meist mit der Absicht, sie als mythologisches Beiwerk zu kritisieren oder in anthropologische Kategorien zu übersetzen. Das Eigenrecht einer Rede vom Himmel wurde bestritten, da dies allenfalls als analytische Bestimmung des Gottesbegriffes zu sehen sei und alle weiter gehenden Bestimmungen freie Spekulation seien. Hierfür wurden auch pastorale Gründe geltend gemacht: Wenn die modernen Menschen schon Schwierigkeiten mit dem Glauben haben, solle man sie nicht mit Zweitrangigem überfrachten. Und wenn man ihnen im technischen Zeitalter transzendente Gegenstände zumutet, dann höchstens Gott. Es komme darauf an, die Beziehung des Menschen zu Gott zu entdecken und zu stärken. Die Paradigmen für diese Beziehung waren meist zweipolig: Urvertrauen (Mutter-Säugling), Dialog (Ich und Du) oder Begegnung (Personen). In jüngerer Zeit wurden feinere Begriffsschärfungen vor allem im protestantischen Bereich vorgenommen. Der Systematiker Michael Welker hat auf die Differenz von Himmel und Gott hingewiesen. Vor dem Hintergrund der Prozessphilosophie, in der die Entfaltung des Kosmos mit dem Selbstvollzug Gottes deckungsgleich gedacht wird, hat er die Notwendigkeit dieser Unterscheidung betont: “Gott ist nicht der Himmel. Wir können nicht der Verwechslung von Gott und Welt durch die Verwechslung von Gott und einem Teil der Welt wehren. [...] Der Himmel ist Geschöpf und Teil der Welt. Dieser für uns relativ unbestimmte, unmanipulierbare Teil der Schöpfung kann räumlich und zeitlich bestimmt verstanden werden.” Hinter Welkers Ausführungen steht die im 20. Jahrhundert maßgebliche Thematisierung des Himmels, nämlich § 51 aus Karl Barths Kirchlicher Dogmatik. Barth bindet seine Reflexionen über den Himmel streng an die Offenbarung. Jede darüber hinaus gehende Spekulation über eine “selbständige Ontologie des Himmels” führe von Gott weg hinein in die Willkür möglicher Welten. Aus dem biblischen Zeugnis heraus gelte es, “geordnete Rechenschaft” abzulegen. Dennoch dürfe man nicht einer bequemen aufklärerischen Skepsis verfallen, die das Thema für theologisch irrelevant hält und darüber hinaus als unwissenschaftlich abtut; immerhin sei die Rede von Gott eng mit der Rede vom Himmel verknüpft. Der vorliegende Beitrag will die Notwendigkeit einer eigenständigen Kategorie „Himmel“ herausstellen. Dies geschieht nicht aus einem nostalgischen Interesse, aussterbende Glaubensinhalte zu konservieren, sondern weil der Begriff einer niedrigen, nichtgöttlichen Transzendenz systematisch notwendig ist. Zudem benötigt man ihn in der praktischen Theologie für eine differenzierte Wahrnehmung außerkirchlicher Religiosität, welche mit der De-Etablierung der Kirchen weiter zunehmen wird. Wie soll man mit vager Spiritualität vom Übersinnlichen, Himmlischen heute umgehen? Darf man sie mit Verweis auf dogmatische Hochgott-Begriffe glattweg ablehnen, darf man sie umgekehrt im Namen einer Universalreligion einfach akzeptieren? Wie kann man fremde Religiosität als Religiosität bejahen und sich dennoch davon kritisch absetzen? Die klare Unterscheidung von erster Transzendenz (Himmel) und zweiter Transzendenz (Gott) soll hierzu beitragen. Dabei wird der Akzent auf ersterer liegen, denn es ist theologisch unproblematisch, dass Gott das absolute Gegenüber zur Welt darstellt; wo aber der Himmel dazwischen zu platzieren ist, bedarf einer eingehenden Begriffsbestimmung. Als erstes wird die Reinigung des Begriffs von nichtreligiösen Konnotationen vorgenommen.
Mehr als bloß Bahala Na
(2003)
Theologie made in the Philippines fällt in der europäischen Wahrnehmung durch alle Raster. Für Befreiungstheologie schlägt man bei lateinamerikanischen Theologen nach, für Religionsdialog bei indischen. Wohin hat sich die philippinische Theologie seit den Zeiten der „Theologie des Kampfes“ entwickelt, als katholische Priester Vordenker der National People’s Army waren? Im Folgenden soll die Wende hin zur „popular religiosity“ nachgezeichnet werden. Nicht behandelt werden die kirchlichen Entwicklungen wie das einflussreiche Ereignis der Philippinischen Nationalsynode 1991 und die Veröffentlichung des Philippinischen Katechismus 1997.
Net Divide
(2004)
Ausgehend von einer Charakterisierung des Flow-Erlebens als gaenzliches Aufgehen in einem glatt laufenden Taetigkeitsvollzug, den man trotz hoher Beanspruchung noch unter Kontrolle hat, wird auf die Erfassung dieser Motivationskomponente eingegangen. Dargestellt und diskutiert werden Vor- und Nachteile der bisherigen qualitativen (Interviews) und quantitativen Flow-Erfassung (Experience Sampling Method (ESM)) . Ausfuehrlicher wird eine "Flow-Kurzskala" (FKS) beschrieben, die mit zehn Items alle qualitativ verschiedenen Komponenten des Flow-Erlebens oekonomisch und reliabel erfasst. Sie liefert einen Gesamtwert sowie Werte fuer zwei Subskalen (glatter automatisierter Verlauf sowie Absorbiertheit). Daneben erfassen drei zusaetzliche Items die Besorgnis in der aktuellen Situation. Berichtet werden Vergleichskennwerte aus punktuellen Messungen und ESM-Studien. Die hoechsten Werte fuer Flow und Besorgnis wurden bislang bei Graffiti-Sprayern gefunden. Bei einer intellektuell herausfordernden Aufgabe (Postkorbuebung) sind die FKS-Werte mit der Hoffnung-auf-Erfolg-Komponente des Leistungsmotivs korreliert. Furcht-vor-Misserfolg korreliert dagegen mit dem Besorgniswert der FKS. Flow waehrend der Bearbeitung von Uebungsaufgaben fuer Statistik lieferte einen signifikanten Beitrag zur Vorhersage der nachfolgenden Klausurleistung. Dieser Beitrag blieb erhalten, auch wenn Faehigkeitsmasse kontrolliert wurden. (Buch/A.G. - ZPID)
Berichtet wird über eine Möglichkeit, Flow-Erleben unter experimentell kontrollierten Bedingungen systematisch zu variieren. Dabei werden die Tätigkeit (das Computerspiel Roboguard) und die Situationsbedingungen konstant gehalten. Variiert wird lediglich die Schwierigkeitsstufe, auf der gespielt wird. Als abhängiges Maß wurde die Flow-Kurzskala (FKS, Rheinberg, Vollmeyer & Engeser, 2002) verwandt. Es zeigten sich die vorhergesagten kurvilinearen Beziehungen zwischen Anforderungsstufe und Flow mit Effektstärken um 1 und größer. Zusammenhänge zwischen habitueller Zielorientierung (Hayamizu & Weiner, 1991) und Flow zeigten sich nur bei den flow-auslösenden Schwierigkeitsstufen. Es gab keine negative Beziehung zwischen Zielorientierung und Flow, vielmehr korrelierten sowohl die learning- als auch die performance goal orientation positiv mit der Flowkomponente Absorbiertheit. Aus diesem Befund wird eine Arbeitshypothese zur Beziehung von Motivation und Flow hergeleitet, wonach unter optimalen Bedingungen Besonderheiten der Initialmotivation vielleicht dann keine Rolle mehr spielen, wenn die Person erst einmal im Flow-Zustand ist.
In den letzten 20 Jahren hat sich der Maiszünsler (Ostrinia nubilalis HÜBNER), aus der Schmetterlingsfamilie der Pyralidae oder Zünsler, zum bedeutendsten tierischen Schädling des Maises (Zea mays) entwickelt. Eine Möglichkeit den Befall des Maiszünslers abzuwenden, bietet der Anbau von Bacillus thuringiensis-Mais (Bt-Mais). Mit Hilfe der Gentechnik wurden Gene des Bakteriums Bacillus thuringiensis übertragen, die einen für Fraßinsekten giftigen Wirkstoff bilden, wodurch die Pflanzen während der kompletten Vegetation vor den Larven des Maiszünslers geschützt sind. Ziel des vorliegenden Projektes war es, in einer 3-jährigen Studie die Auswirkungen des großflächigen Anbaus von Bt-Mais auf die ökologische Situation und den Handlungsrahmen des integrierten Pflanzenschutzes komplex zu untersuchen. Dazu wurden in Betrieben im Oderbruch, das als permanentes Befallsgebiet des Maiszünslers gilt, in den Jahren 2002 bis 2004 jährlich zwei Felder mit jeweils einer Bt-Sorte und einer konventionellen Sorte angelegt. Zusätzlich wurden biologische und chemische Maiszünsler-Bekämpfungsvarianten geprüft. Durch verschiedene Methoden wie Bonituren, Ganzpflanzenernten, Bodenfallenfänge und Beobachtungen des Wahlverhaltens von (Flug-)insekten konnten Aussagen zum Vorkommen von Insekten und Spinnentieren getroffen werden, wobei hierfür Daten aus Untersuchungen der Jahre 2000 und 2001 im Oderbruch ergänzend herangezogen werden konnten. Durch Ertragsmessungen, Energie- und Qualitätsermittlungen, sowie Fusarium- und Mykotoxinanalysen konnte der Anbau von Bt-Mais als neue Alternative zur Bekämpfung des Maiszünslers bewertet werden. Bezüglich des Auftretens von Insekten und Spinnentieren wurden im Mittel der fünfjährigen Datenerhebung beim Vergleich der Bt-Sorte zur konventionellen Sorte, mit Ausnahme der fast 100 %igen Bekämpfung des Maiszünslers, keine signifikanten Unterschiede festgestellt. Hierfür wurde ein besonderes Augenmerk auf Thripse, Wanzen, Blattläuse und deren Fraßfeinde, sowie mittels Bodenfallenfängen auf Laufkäfer und Spinnen gerichtet. Die erwarteten ökonomischen Vorteile wie etwa Ertragsplus oder bessere Nährstoff- und Energiegehalte durch geringeren Schaden beim Anbau von Bt-Mais als Silomais blieben in den Untersuchungsjahren aus. Allerdings zeigten Fusarium- und Mykotoxinanalysen eine geringere Belastung des Bt-Maises, was möglicherweise auf den geringeren Schaden zurückzuführen ist, da beschädigte Pflanzen für Fusarium und Mykotoxine anfälliger sind. Desweiteren konnten erste methodische Ansätze für ein auf EU-Ebene gefordertes, den Anbau von Bt-Mais begleitendes Monitoring, erarbeitet werden. So konnten Vorschläge für geeignete Methoden, deren Umfang sowie des Zeitpunktes der Durchführungen gemacht werden.
Im kognitiv-motivationalen Prozessmodell des Lernens wird angenommen, dass der Lernerfolg von der Qualität und der Dauer ausgeführter Lernaktivitäten, aber auch vom Funktionszustand des Lerners während der Lernphase abhängt. Es wird vermutet, dass eine von mehreren Variablen des Funktionszustandes der Flow-Zustand während des Lernens ist. In einer Untersuchung in universitären Fremdsprachenkursen zeigte sich in der Tat, dass Flow-Erleben während des Unterrichts die späteren Lernleistungen auch dann vorhersagt, wenn der Leistungseffekt relevanter Lernkompetenzvariablen vorweg berücksichtigt wird. Gemäß dem kognitiv-motivationalen Prozessmodell wird Flow-Erleben seinerseits über die aktuelle Motivation vor der Lernphase vorhergesagt, wobei die wiederum von einer allgemeineren Motivationsvariablen zu Semesterbeginn abhängt. Diese Struktur wurde in einer zweiten Untersuchung repliziert und zwar an Studenten im Verlauf ihrer Statistikausbildung im Fach Psychologie. Beide Ergebnisse sprechen dafür, dass Flow- Erleben während des Lernens eine leistungsrelevante Variable des Funktionszustandes beim Lernen ist, die sich in ihrer Beziehungsstruktur erwartungsgemäß in das kognitivmotivationale Prozessmodell einpassen lässt.
In einer Laengsschnittstudie wird die Entwicklung von Motivationskomponenten zum Lernen in Mathematik von der fuenften bis zur neunten Klassenstufe untersucht. Motivationskomponenten wurden mit dem "Potsdamer Motivations-Inventar" erfasst, die Bezugsnormorientierung der Lehrer sowie das mathematisch-naturwissenschaftliche Anregungsklimas im Elternhaus mit eigens entwickelten Skalen. Daten wurden an einer Stichprobe von urspruenglich zirka 750 Schuelerinnen und Schuelern erhoben. An der dritten Erhebung nahmen nur noch etwa 600 von ihnen teil. Es zeigte sich, dass sich die Mathematiknote am Ende eines Schuljahres sehr gut durch die zu Schulbeginn erfassten Motivationskomponenten vorhersagen laesst. Waehrend das insgesamt geringe Angsterleben im Mathematikunterricht von der fuenften bis zur neunten Klasse stabil blieb, nahm das Sachinteresse kontinuierlich ab. Bei der Einschaetzung des mathematisch-naturwissenschaftlichen Anregungsklimas im Elternhaus fanden sich ueberraschenderweise grosse Unterschiede zwischen Kindern und Eltern. (U.B. - ZPID)
Abschlussbericht zum DFG-Projekt "Veränderung der Lernmotivation in Mathematik und Physik: eine Komponentenanalyse und der Einfluss elterlicher sowie schulischer Kontextfaktoren" Abstract: Dass die Lernmotivation besonders in mathematisch-naturwissenschaftlichen Fächern im Verlauf der Sekundarschulzeit sinkt, kann als gesichert gelten (Krapp, 1998). Allerdings ergibt sich bei genauerem Hinsehen ein recht differenziertes Bild. Dies betrifft insbesondere die verschiedenen Komponenten von Lernmotivation (z. B. Erfolgserwartungen, Nützlichkeiten/Instrumentalitäten, intrinsische vs. extrinsische Folgenanreize, Sachinteressen, Selbstkontrollfunktionen etc.), die offenbar nicht gleichermaßen betroffen sind. Weiterhin wurden auch unterschiedliche Veränderungen je nach Fach, Klassenstufe und Geschlecht gefunden (z. B. Fend, 1997; Pekrun, 1993). Überdies sind hier individuell unterschiedliche Verlaufstypen der Lernmotivationsveränderung zu erwarten (Fend, 1997; Rheinberg, 1980). Je nachdem, aufgrund welcher Komponenten ein Absinken der Lernmotivation zustande kommt, sind ganz andere Interventionsmaßnahmen angezeigt. Von daher ist ein Instrumentarium erforderlich, das die einzelnen Komponenten der Lernmotivation in mathematisch-naturwissenschaftlichen Fächern zu erfassen erlaubt. Ein solches Verfahren soll in einem zweijährigen Projekt theorieverankert entwickelt werden. Es stützt sich zunächst auf das Erweiterte Kognitive Modell zur Lernmotivation (Heckhausen & Rheinberg, 1980; Rheinberg, 1989), des weiteren auf Interessenkonzepte (Krapp, 1992, 1998) sowie auf die Handlungskontroll- bzw. die PSI-Theorie (Kuhl, 1987, 1998). Es soll die Lernmotivation in ihren Komponenten so erfassen, dass spezifische Interventionen hergeleitet bzw. schon bewährte fallbezogen platziert werden können. Solche Interventionen sind für mögliche Anschlussprojekte im DFG-Schwerpunktprogramm "Bildungsqualität" vorgesehen. In einem altersgestaffelten einjährigen Längsschnitt wird im jetzigen Projekt mit diesem Instrument die Veränderung dieser Komponenten in den Fächern Mathematik und Physik auf der Sekundarstufe I erhoben. Gewonnen werden dabei klassenstufenspezifische Veränderungen der Lernmotivationskomponenten sowie (via Typenanalysen) verschiedene Entwicklungstypen in der mathematisch-naturwissenschaftlichen Lernmotivation. Dies sind Basisinformationen, die für die Entwicklung, Platzierung und Effektsicherung nachfolgender Interventionsmaßnahmen benötigt werden. Um im Vorfeld zwei (von vielen) Ansatzpunkten solcher Interventionen näher abzuklären, wird bereits in der ersten Projektphase die Wirkung zweier Kontextfaktoren untersucht. Hier wird (a) das mathematisch-naturwissenschaftliche Anregungsklima des Elternhauses sowie (b) die Bezugsnorm-Orientierung des Mathematik- bzw. Physiklehrers erfasst. Von beiden Kontextfaktoren sind Auswirkungen auf spezifische Komponenten der mathematisch-naturwissenschaftlichen Lernmotivation zu erwarten. Dies ist jedoch vorweg genauer abzuklären, ehe man die Kosten von Interventionen investiert. Das Instrumentarium (PMI) wird von Mai bis September 2000 entwickelt. Die einjährige Längsschnittstudie beginnt dann im Oktober 2000. Geplant sind drei Messzeitpunkte jeweils auf den Klassenstufen 5 bis 9 (Kombiniertes Längs- und Querschnittdesign)
Untersucht wurde, welche Anreize das Graffiti-Sprayen attraktiv machen. Dazu wurden in einer Vorphase 138 Anreizschilderungen gesammelt und in einen Fragebogen mit 50 Items transformiert. N = 294 Graffiti-Sprayer beantworteten diesen Fragebogen teils online im Internet, teils anonym gestreut auf Graffiti- oder Hip-Hop-Events.Faktorenanalytisch ließen sich sieben Anreizdimensionen ermitteln: Expertise/Kompetenzorientierung, Positive Emotionen/Flow, Kreativität, Gruppengefühl, Ruhm/Performanzorientierung, Lebenssinn, Sensation Seeking/Grenzerfahrung.Legales vs. illegales Graffiti-Sprayen unterschieden sich deutlich im Faktor Sensation Seeking/Grenzerfahrung und tendenziell im Faktor Lebenssinn. Das gesondert erfasste Flow-Erleben ließ sich beim illegalen Sprayen am besten über den Faktor Sensation Seeking/Grenzerfahrung vorhersagen, während Flow beim legalen Graffiti-Sprayen am besten über den Faktor Ruhm/Performanzorientierung vorhersagbar war. Innerhalb der legalen bzw. illegalen Sprayer ließen sich noch verschiedene Motivationstypen unterscheiden. Mit Blick auf alterskorrelierte Anreizveränderungen ließen sich beim legalen Graffiti-Sprayen keine nennenswerten Zusammenhänge zwischen Alter und Anreizgewicht feststellen. Dagegen nimmt beim illegalen Sprayen insbesondere die Bedeutung des Sensation Seeking sowie der Leistungsthematik signifikant mit dem Alter ab. Da dies die wichtigsten Anreize des illegalen Sprayens sind, dürfte dieser alterskorrelierte Anreizverlust erklären, warum es kaum illegale Sprayer gibt, die älter als 21 Jahre sind. Aus zusätzlich frei genannten Anreizen gab es noch Hinweise auf eine weitere Anreizkategorie, nämlich die Freude an „aggressiver Provokation“. Diese Kategorie war aber eher schwach besetzt. Diskutiert werden u. a. Möglichkeiten, unerwünschtes Graffiti-Sprayen einzudämmen. Hierzu wird auf die Notwendigkeit von „Aussteigeranalysen“ (Längsschnittstudien) hingewiesen, die offenlegen, für welche kritischen Anreize man Ersatz finden muss, wenn man z. B. in Interventionsprojekten das Engagement auffällig gewordener Sprayer auf andere Tätigkeitsfelder lenken möchte.
Consumer attitudes towards genetically modified foods in Europe : structure and changeability
(2004)
Genetically modified foods have been at the center of debate in European consumer policy in the last two decades. Although the quasi-moratorium has been lifted in May 2004 and the road to the market is in principle reopened, strategies for product introduction are lacking. The aim of the research is to assess potential barriers in the area of consumer acceptance and suggest ways in which they can be overcome. After a short history of the genetically modified foods debate in Europe, the existing literature is reviewed. Although previous research converges in its central results, issues that are more fundamental have remained unresolved. Based on classical approaches in attitude research and modern theories of social cognition, a general model of the structure, function and dynamics of whole systems of attitudes is developed. The predictions of the model are empirically tested based on an attitude survey (N = 2000) and two attitude change experiments (N = 1400 and N = 750). All three studies were conducted in parallel in four EU member states. The results show that consumer attitudes towards genetically modified foods are embedded into a structured system of general socio-political attitudes. The system operates as a schema through which consumers form global evaluations of the technology. Specific risk and benefit judgments are mere epiphenomena of this process. Risk-benefit trade-offs, as often presupposed in the literature, do not appear to enter the process. The attitudes have a value-expressive function; their purpose is not just a temporary reduction of complexity. These properties render the system utterly resistant to communicative interventions. At the same time, it exerts stong anchoring effects on the processing of new information. Communication of benefit arguments can trigger boomerang effects and backfire on the credibility of the communicator when the arguments contrast with preexisting attitudes held by the consumer. Only direct sensory experience with high-quality products can partially bypass the system and lead to the formation of alternative attitude structures. Therefore, the recommended market introduction strategy for genetically modified foods is the simultaneous and coordinated launch of many high-quality products. Point of sale promotions should be the central instrument. Information campaigns, on the other hand, are not likely to have an effect on the product and technology acceptance of European consumers.
Homocystein (tHcy) gilt als unabhängiger kardiovaskulärer Risikofaktor und korreliert eng mit einer endothelialen Dysfunktion, welche nichtinvasiv mittels der flussinduzierten Vasodilatation (FMD) messbar ist. Experimentelle Hyperhomocysteinämie ist mit einer reduzierten Bioverfügbarkeit von endothelialen Stickstoffmonoxid (NO) bei gleichzeitig erhöhten Spiegeln des kompetetiven Inhibitors der NO-Biosynthese asymmetrisches Dimethylarginin (ADMA) assoziiert. In-vivo senkt eine Östrogenbehandlung neben tHcy auch die ADMA-Spiegel und verbessert signifikant die Endothelfunktion. Hinsichtlich ihrer Wirkung als selektive Östrogenrezeptormodulatoren wird angenommen, dass Phytoöstrogene, speziell Sojaisoflavone, ähnliche Effekte hervorrufen. Innerhalb einer europäischen, multizentrischen, doppelblinden Interventionsstudie an 89 gesunden, postmenopausalen Frauen wurde der Einfluss von Sojaisoflavonen auf den Homocysteinmetabolismus, den Blutdruck und die in-vivo Endothelfunktion untersucht. Die cross-over Studie umfasste zwei achtwöchige Interventionsperioden, die von einer gleichlangen Wash-out-Phase unterbrochen waren. Die Zuteilung zum Isoflavon- (50 mg/d) oder Plazeboregime für die erste Interventionsphase erfolgte randomisiert. Endpunkterhebungen fanden jeweils in den Wochen 0 und 8 der Interventionsperioden statt. Die renale Ausscheidung von Genistein, Daidzein und Equol war während der Isoflavonintervention signifikant erhöht (P>0,001). Die Phyoöstrogene hatten weder einen Effekt auf die tHcy-Konzentration (P=0,286), noch auf ADMA, Erythrozytenfolat und Vitamin B-12 (P>0,05) im Plasma. Während die Summe aus Nitrat und Nitrit (NOx), welche die NO-Bioverfügbarkeit reflektiert, im Verlaufe der Plazebobehandlung abfiel, wurde ein leichter Anstieg bei der Isoflavonsupplementation beobachtet (Delta Wo8-Wo0: -2,60 [-8,75; 2,25] vs. 1,00 [-6,65; 7,85] µmol/L P<0,001), was zu einem signifikanten Behandlungseffekt führte. Weiterhin wurde eine positive Korrelation zwischen ADMA und Vitamin B-12 gefunden (R=0,252; P=0,018). Die flussinduzierte Vasodilatation (P=0,716), ein Maß für die Endothelfunktion, blieb durch die Isoflavonbehandlung unbeeinflusst, obwohl sich diese über die Zeit insgesamt verbesserte (P>0,001). Bis auf einen marginalen Anstieg des systolischen Wertes (P=0,032) im Vergleich zur Plazebobehandlung blieb der Blutdruck während der Isoflavonintervention unverändert. Im Gegensatz zu Östrogen übten Sojaisoflavone weder einen Einfluss auf die in-vivo Endothelfunktion noch auf die traditionellen und neuen kardiovaskulären Risikofaktoren den Blutdruck, tHcy und ADMA aus. Demzufolge ist der gesundheitliche Nutzen isolierter Isoflavone hinsichtlich einer Prävention hormonmangelbedingter Erkrankungen in gesunden postmenopausalen Frauen fraglich.
Die Studie beschäftigt sich mit den Auswirkungen der von Deutschland geschlossenen bilateralen Investitionsschutzverträge (Bilateral Investment Treaties, BITs) auf die wirtschaftliche, soziale und ökologische Regulierung von ausländischen Investitionen. Die Analyse der 137 deutschen BITs sowie die Auswertung relevanter Schiedsgerichtsentscheidungen hat folgende zentrale Ergebnisse hinsichtlich der Einschränkung staatlicher Regulierungsmöglichkeiten ergeben: Aufgrund eines breiten Enteignungsbegriffs kann eine umweltpolitische Regulierung, die wirtschaftliche Auswirkungen auf ausländische Investoren hat, eine Verpflichtung zur Entschädigung nach sich ziehen, denn den deutschen BITs ist nicht klar zu entnehmen, dass staatliche Regulierung im Regelfall nicht als Enteignung gelten sollte. Empirisch kann weder eine Verbindung zwischen dem Abschluss von BITs und einem Anstieg des Investitionsvolumens noch ein Automatismus zwischen dem Zufluss von privatem Kapital und wirtschaftlicher Entwicklung hergestellt werden. Im Gegenteil sind sogar staatliche Maßnahmen, die für kapitalimportierende Länder eine Möglichkeit wären, den wirtschaftlichen Nutzen von ausländischen Investitionen zu erhöhen, durch Regelungen in den BITs untersagt. Problematisch im Bereich geistiges Eigentum ist, dass Rechtsinhaber vor einem internationalen Schiedsgericht Entschädigung einklagen können, wenn staatliche Regulierung im öffentlichen Interesse zu einem enteignungsgleichen Eingriff führt. Dienstleistungen unterliegen aufgrund ihrer Eigenschaften besonders stark der staatlichen Regulierung, so dass auch hier Konflikte bezüglich des Enteignungsschutzes und des Grundsatzes der gerechten und billigen Behandlung entstehen. Bei der Beteiligung privater Unternehmen in der Daseinsvorsorge ist problematisch, dass jede Verletzung vertraglicher Zusicherungen durch den Gaststaat aufgrund der Abschirmungsklausel als Verstoß gegen die deutschen BITs gilt. Damit erschweren die Verträge, die häufig über lange Zeiträume geschlossen sind, Reaktionen staatlicher Stellen auf neu auftretende Regulierungsbedürfnisse. Im Bereich des Arbeitnehmerschutzes und der Sozialpolitik kann in bestimmten Konstellationen die Verschärfung von Arbeitsstandards gegen die Abschirmungsklausel verstoßen oder die Umverteilung von Land ohne volle Entschädigung mit dem Enteignungsschutz in Konflikt geraten. Bei der Besteuerung ausländischer Investoren können insbesondere Widersprüchlichkeiten im Steuerrecht, die sich zuungunsten ausländischer Investoren auswirken, als Verstoß gegen den Grundsatz der Inländerbehandlung interpretiert werden, selbst wenn ihnen keine protektionistische Intention zugrunde liegt. Auch das Investor-to-State Verfahren trägt dazu bei, dass der Ausgleich zwischen Investitionsschutz und legitimen staatlichen Regulierungsinteressen teilweise nur unzureichend gelingt. Das liegt unter anderem an seiner Nichtöffentlichkeit, der fragmentarischen Natur der Entscheidungen und der fehlenden Nähe der Schiedsgerichte zu den tatsächlichen und rechtlichen Hintergründen der Streitigkeiten. Als Konsequenz aus den genannten Problembereichen werden Reformvorschläge für deutsche bilaterale Investitionsabkommen als ein erster Schritt zur Schaffung eines Gleichgewichts zwischen Investorenrechten und Investorenpflichten entwickelt. Durch eine Reform sollten den Gaststaaten größere Handlungsspielräume eröffnet und ihre Flexibilität erhöht werden, um den ökonomischen Nutzen ausländischer Investitionen für Entwicklungsländer zu steigern und allen Ländern eine Regulierung von Investitionen im öffentlichen Interesse zu ermöglichen.
Polymere sind zweifelsohne der Werkstoff in unserer Zeit. Ein bedeutender Anteil der heute industriell produzierten Polymere wird durch Emulsionspolymerisation hergestellt. Obwohl die Emulsionspolymerisation breite Anwendung findet, sind die involvierten Mechanismen von Teilchenbildung und -wachstum noch heute Gegenstand heftiger Kontroversen. Ein Spezialfall der Emulsionspolymerisation ist die emulgatorfreie Emulsionspolymerisation. Hierbei handelt es sich um ein scheinbar einfacheres System der Emulsionspolymerisation, weil diese Methode ohne Zusatz von Emulgatoren auskommt. Die Teilchenbildung ist ein fundamentaler Vorgang im Verlauf der Emulsionspolymerisation, da sie zur Ausbildung der polymeren Latexphase führt. Detaillierte Kenntnisse zum Mechanismus der Nukleierung ermöglichen eine bessere Kontrolle des Reaktionsverlaufes und damit der Eigenschaften des Endproduktes der Emulsionspolymerisation, dem Polymer-Latex. Wie bereits vorangegangene Arbeiten auf dem Gebiet der emulgatorfreien Emulsionspolymerisation von Styrol sowie Methylmethacrylat und Vinylacetat zeigen konnten, verläuft die Teilchenbildung in diesen Systemen über den Mechanismus der aggregativen Nukleierung. Im Zusammenhang mit den Ergebnissen der genannten Arbeiten tauchte dabei immer wieder ein interessanter Effekt im Bereich der Partikelnukleierung auf. Dieses als JUMBO-Effekt bezeichnete Phänomen zeigte sich reproduzierbar in einem Anstieg der Transmission im Bereich der Teilchenbildung von emulgatorfreien Emulsionspolymerisationen von Styrol, MMA und VAc. Nach der Initiierung der Polymerisation in einer wässrigen Monomerlösung durch Kaliumperoxodisulfat steigt die Durchlässigkeit bei 546 nm auf über 100 % an. Für diese „Abnahme der optischen Dichte“ wurden verschiedene Erklärungsmöglichkeiten vorgeschlagen, jedoch blieb ein Nachweis der Ursache für den JUMBO-Effekt bisher aus. Dieser Mangel an Aufklärung eines offenbar grundlegenden Phänomens in der emulgatorfreien Emulsionspolymerisation bildet den „Nukleus“ für die vorlie¬gende Arbeit. Durch die vorliegende Dissertation konnte das Verständnis für Phänomene der Teilchenbildung in der emulgatorfreien Emulsionspolymerisation von Styrol mit KPS erweitert werden. In diesem Rahmen wurde das Online-Monitoring des Polymerisationsvorganges verbessert und um verschiedene Methoden erweitert: Zur simultanen Erfassung von Trübungsdaten bei verschiedenen Wellenlängen konnte ein modernes Spektrometer in Kombination mit einer Lichtleitersonde in die Reaktionsapparatur integriert werden. Es wurde ein verbesserter Algorithmus zur Datenbearbeitung für die Partikelgrößenbestimmung mittels faseroptischer dynamischer Lichtstreuung entwickelt. Es wurden Online-Partikelgrößenanalysen mittels statischer Vielwinkellichtstreuung bei Polymerisationen direkt in entsprechenden Lichtstreuküvetten durchgeführt. Diese zur Beschreibung des untersuchten Systems eingeführten Methoden sowie ein zeitlich vollständiges Monitoring des gesamten Polymerisationsverlaufes, beginnend mit der Zugabe von Monomer zu Wasser, führten zu neuen Erkenntnissen zur emulgatorfreien Emulsionspolymerisation. Es wurden große Monomeraggregate, die sog. Nanotröpfchen, in wässriger Lösung (emulgatorfrei) nachgewiesen. Diese Aggregate bilden sich spontan und treten verstärkt in entgastem Wasser auf. Die Existenz von Nanotröpfchen in Verbindung mit Trübungs- und gaschromatografischen Messungen lässt auf eine molekular gelöste „Wirkkonzentration“ von Styrol in Wasser schließen, die bedeutend geringer ist als die absolute Sättigungskonzentration. Es konnten Hinweise auf eine Reaktion höherer Ordnung im System Wasser/Styrol/KPS gefunden werden. Es konnte gezeigt werden, dass eine präzise Einstellung der Nukleierungsdauer über die Zeit der Equilibrierung von Wasser mit Styrol möglich ist. Der JUMBO-Effekt, dem in dieser Arbeit ein besonderes Interesse galt, konnte in gewisser Weise entmystifiziert werden. Es konnte gezeigt werden, dass die Durchlässigkeit der Reaktionsmischung bereits beim Lösen von Styrol in Wasser durch Bildung von Styrolaggregaten abnimmt. Der darauf folgende kurzzeitige Transmissionsanstieg im Zusammenhang mit der Nukleierung erreicht dabei nicht mehr 100 % des Referenzwertes von reinem Wasser. Alle experimentellen Daten sprechen für die Nanotröpfchen als Ursache des JUMBO-Effekts. Wie die Ergebnisse dieser Arbeit zeigen, ist selbst das relativ „einfache“ System der emulgatorfreien Emulsionspolymerisation komplizierter als angenommen. Die Existenz von großen Styrolaggregaten in wässriger Lösung erfordert eine neue Betrachtungsweise des Reaktionssystems, in die auch der Lösungszustand des Monomers mit einbezogen werden muss.
Thema dieser Arbeit sind echtzeitfähige 3D-Renderingverfahren, die 3D-Geometrie mit über der Standarddarstellung hinausgehenden Qualitäts- und Gestaltungsmerkmalen rendern können. Beispiele sind Verfahren zur Darstellung von Schatten, Reflexionen oder Transparenz. Mit heutigen computergraphischen Software-Basissystemen ist ihre Integration in 3D-Anwendungssysteme sehr aufwändig: Dies liegt einerseits an der technischen, algorithmischen Komplexität der Einzelverfahren, andererseits an Ressourcenkonflikten und Seiteneffekten bei der Kombination mehrerer Verfahren. Szenengraphsysteme, intendiert als computergraphische Softwareschicht zur Abstraktion von der Graphikhardware, stellen derzeit keine Mechanismen zur Nutzung dieser Renderingverfahren zur Verfügung. Ziel dieser Arbeit ist es, eine Software-Architektur für ein Szenengraphsystem zu konzipieren und umzusetzen, die echtzeitfähige 3D-Renderingverfahren als Komponenten modelliert und es damit erlaubt, diese Verfahren innerhalb des Szenengraphsystems für die Anwendungsentwicklung effektiv zu nutzen. Ein Entwickler, der ein solches Szenengraphsystem nutzt, steuert diese Komponenten durch Elemente in der Szenenbeschreibung an, die die sichtbare Wirkung eines Renderingverfahrens auf die Geometrie in der Szene angeben, aber keine Hinweise auf die algorithmische Implementierung des Verfahrens enthalten. Damit werden Renderingverfahren in 3D-Anwendungssystemen nutzbar, ohne dass ein Entwickler detaillierte Kenntnisse über sie benötigt, so dass der Aufwand für ihre Entwicklung drastisch reduziert wird. Ein besonderer Augenmerk der Arbeit liegt darauf, auf diese Weise auch verschiedene Renderingverfahren in einer Szene kombiniert einsetzen zu können. Hierzu ist eine Unterteilung der Renderingverfahren in mehrere Kategorien erforderlich, die mit Hilfe unterschiedlicher Ansätze ausgewertet werden. Dies erlaubt die Abstimmung verschiedener Komponenten für Renderingverfahren und ihrer verwendeten Ressourcen. Die Zusammenarbeit mehrerer Renderingverfahren hat dort ihre Grenzen, wo die Kombination von Renderingverfahren graphisch nicht sinnvoll ist oder fundamentale technische Beschränkungen der Verfahren eine gleichzeitige Verwendung unmöglich machen. Die in dieser Arbeit vorgestellte Software-Architektur kann diese Grenzen nicht verschieben, aber sie ermöglicht den gleichzeitigen Einsatz vieler Verfahren, bei denen eine Kombination aufgrund der hohen Komplexität der Implementierung bislang nicht erreicht wurde. Das Vermögen zur Zusammenarbeit ist dabei allerdings von der Art eines Einzelverfahrens abhängig: Verfahren zur Darstellung transparenter Geometrie beispielsweise erfordern bei der Kombination mit anderen Verfahren in der Regel vollständig neuentwickelte Renderingverfahren; entsprechende Komponenten für das Szenengraphsystem können daher nur eingeschränkt mit Komponenten für andere Renderingverfahren verwendet werden. Das in dieser Arbeit entwickelte System integriert und kombiniert Verfahren zur Darstellung von Bumpmapping, verschiedene Schatten- und Reflexionsverfahren sowie bildbasiertes CSG-Rendering. Damit stehen wesentliche Renderingverfahren in einem Szenengraphsystem erstmalig komponentenbasiert und auf einem hohen Abstraktionsniveau zur Verfügung. Das System ist trotz des zusätzlichen Verwaltungsaufwandes in der Lage, die Renderingverfahren einzeln und in Kombination grundsätzlich in Echtzeit auszuführen.
Nachlässe sind persönliches Eigentum und unterliegen deshalb keiner Abgabepflicht. Der Wunsch des Nachlassers bezüglich der weiteren Aufbewahrung seines schriftlichen Erbes ist demzufolge primär gegenüber allen unseren Wünschen. Wir können nicht fordern, sondern nur bitten, uns durch eigene Leistungen anbieten und die zukünftigen Nachlassenden oder deren Erben überzeugen. Die nicht vorhandene institutionelle Zuständigkeit für die Übernahme von Nachlässen erzeugt die Reibungspunkte zwischen den Einrichtungen, die sich um den Erwerb von Nachlässen bemühen: Archive – Bibliotheken – Museen - Sammlungen. Die Wünsche zum Erwerb des Nachlasses einer bestimmten Person – egal ob Wissenschaftler, Künstler oder Politiker – sind demzufolge immer an verschiedenen Orten gleichzeitig vorhanden. Der Zufall entscheidet dann leider meist darüber, an welcher Stelle der Nachlass zukünftig verwahrt und wissenschaftlich genutzt wird. Es stellt sich die Frage, ob wir auf solche Zufälle hoffen und warten sollen, oder ob wir nicht eher eine engagierte – gemeinsam zwischen den Archiven abgestimmte - Erwerbspolitik betrieben sollten. ------------ Beiträge zum Thema "Nachlässe an Universitäts- und Hochschularchiven sowie Archiven wissenschaftlicher Institutionen" im Rahmen der Frühjahrstagung der Fachgruppe 8: "Archivare an Hochschularchiven und Archiven wissenschaftlicher Institutionen" am 16./17. Juni an der Universität Potsdam.