Refine
Has Fulltext
- yes (13377) (remove)
Year of publication
Document Type
- Article (4018)
- Postprint (3294)
- Doctoral Thesis (2542)
- Monograph/Edited Volume (972)
- Review (571)
- Part of Periodical (492)
- Preprint (446)
- Master's Thesis (265)
- Conference Proceeding (245)
- Working Paper (245)
Language
- German (7062)
- English (6015)
- Spanish (80)
- French (75)
- Multiple languages (62)
- Russian (62)
- Hebrew (9)
- Italian (6)
- Portuguese (2)
- Hungarian (1)
Keywords
- Germany (118)
- Deutschland (106)
- climate change (79)
- Sprachtherapie (77)
- Patholinguistik (73)
- patholinguistics (73)
- Logopädie (72)
- Zeitschrift (71)
- Nachhaltigkeit (61)
- European Union (59)
Institute
- Extern (1402)
- MenschenRechtsZentrum (943)
- Institut für Physik und Astronomie (715)
- Institut für Biochemie und Biologie (711)
- Wirtschaftswissenschaften (583)
- Institut für Chemie (556)
- Institut für Mathematik (520)
- Institut für Romanistik (514)
- Institut für Geowissenschaften (509)
- Mathematisch-Naturwissenschaftliche Fakultät (489)
Der Große Tempel der Bastet in Tell Basta (Bubastis), der in der Libyer- und Spätzeit monumental ausgebaut wurde, besaß während des gesamten ersten vorchristlichen Jahrtausends nachweislich große Bedeutung. Diese gründete sich auf den raschen Aufstieg der Stadt während der Libyerzeit, als die Herrscher der 22. Dynastie diese zu ihrer Residenzstadt erkoren, was auch eine enorme Aufwertung des Heiligtums der Stadtgöttin Bastet nach sich zog. Ziel der jetzigen archäologischen Arbeit im Großen Tempel von Tell Basta ist es, Grundriß, Ausstattung und Baugeschichte dieses Bauwerks zu erforschen und in Teilen zu rekonstruieren. Neben der archäologischen Erforschung dieses Bauwerks ist inzwischen aber ein neuer Aufgabenkreis entstanden, dessen Bewältigung auch über den Fortgang der Forschung selbst entscheiden wird: der Erhalt und die Pflege des Tempels. Nicht allein vergängliche Baumaterialien sind gefährdet, inzwischen ist auch Steinarchitektur von der Zerstörung bedroht. Seit einigen Jahren gehören daher Restauratoren mit zum Grabungsteam, und vor Ort konnten bereits erste Erfolge bei der Konservierung von Steinobjekten erzielt werden. Dabei zeigte sich aber auch, daß verschiedene Problemfelder neuer Lösungen bedürfen, die erst entwickelt und erprobt werden müssen. Der Weitergabe so gewonnener Erfahrungen soll dieser Band mit den Schwerpunkten Dokumentationstechniken, Restaurierung und Rekonstruktion dienen.
Der Artikel diskutiert die Bedeutung positiven emotionalen Erlebens beim Lernen und die Notwendigkeit der Unterscheidung zwischen generellen Lernmotiven und fachspezifischen Interessen. Es wird ausführlich auf Csikszentmihalyis Theorie des optimalen Erlebens und die von ihm mitbegründete "Erlebens-Stichproben-Methode" eingegangen. Des weiteren wird von einer empirischen Studie berichtet, in der der Zusammenhang zwischen Interesse und der Qualität des Erlebens im Unterricht untersucht wurde. Die Stärke des Interesses als Prädiktor des Erlebens wurde dabei verglichen mit der des Leistungsmotivs und eines Indikators schulbezogener kognitiver Fähigkeit. Die Ergebnisse zeigen, daß Interesse in deutlich engerem Zusammenhang mit der Ericbensqualität steht als Leistungsmotiv und Fähigkeit. Insbesondere die Erlebensdimensionen Aktiviertheit, intrinsische Motivation, Selbstwert und Wahrnehmung eigener Fähigkeit wiesen signifikante Zusammenhänge mit der Interessenausprägung auf.
In insgesamt drei Untersuchungen wurden die folgenden Fragestellungen bzw. Problembereiche bearbeitet: (1) die quantitative Erfassung von Studieninteresse, [ 2 \ der Zusammenhang zwischen Studieninteresse und Leistungsmotiv, (3) die Beziehung zwischen Studieninteresse und kognitiven Variablen. Der von Winteler ii Sierwald(1987) entwickelte "Fragebogen zum Studieninteresse" (FSI) wurde an einer Stichprobe von N=621 Studenten aus verschiedenen Fachbereichen hinsichtlich seiner generellen Anwendbarkeit überprüft (Studie 1). Die Ergebnisse zeigen, daß das Studieninteresse sich nur mit dem Alter verändert, während andere Variablen keinen Einfluß haben. Die zweite Studie (N = 169) ergab, daß zwischen Studieninteresse und dem Leistungsmotiv erwartungsgemäß nur ein geringer Zusammenhang besteht. Darüber hinaus zeigte sich, daß Interesse stärker mit der Studienleistung (Durchschnittsnote) korreliert als das Leistungsmotiv. In Studie 3 (N = 59) wurde der Zusammenhang von Studieninteresse und einem mittels Wortassoziationstest erfaßten Ausschnitt der fachbezogenen Wissensstruktur geprüft. Obwohl keine quantitativen Unterschiede auftraten, ergab eine qualitative Analyse, daß hoch Interessierte fachlich adäquatere Assoziationen produzieren und hinsichtlich ihrer Wissensstruktur einer Gruppe von Experten ähnlicher sind als niedrig Interessierte.
Die Untersuchung beschäftigte sich mit dem Einfluß des thematischen Interesses auf die Ausprägung der nach dem Textverarbeitungsmodell von van Dijk & Kintsch (1983) unterschiedenen Komponenten der Textrepräsentation. Darüber hinaus sollte der Einfluß von Interesse auf motivationale und kognitive Variablen des Leseprozesses (z.B. Elaboration) überprüft werden. Zusätzlich wurde eine Reihe relevanter Einflußgrößen (z.B. Vorwissen) im Sinne von Kontrollvariablen erhoben. 43 Studenten wurden auf der Basis eines Fragebogens in hoch und niedrig thematisch interessierte eingeteilt. Die Vpn bekamen einen Text zum Thema «Kommunikation» zu lesen. Anschließend wurde retrospektiv eine Reihe von Prozeßvariablen erhoben. Es folgte ein Rekognitionstest, der die Ermittlung der unterschiedlichen Stärke der wörtlichen, propositionalen und situativen Textrepräsentation erlaubt. Die Ergebnisse zeigen, daß die wörtliche Textrepräsentation bei den niedrig Interessierten signifikant stärker ausgeprägt ist, während die hoch Interessierten eine stärker ausgeprägte propositionale Abbildung des Textes erkennen lassen. Keine erkennbaren Unterschiede zwischen den beiden Versuchsgruppen zeigten sich hinsichtlich der situativen Repräsentation. Die Berücksichtigung der einbezogenen Kontrollvariablen hatte keine Minderung des Interesseneffekts zur Folge. Interesse hängt darüber hinaus eng mit dem Ausmaß von Aktivierung, Flow-Erleben, elaborativen Prozessen und der Häufigkeit von Notizen zusammen. Es ergaben sich Anhaltspunkte, daß diese Variablen auch eine wichtige Rolle bei der Vermittlung des beobachteten Interesseneffekts spielen.
Die Untersuchung beschäftigte sich mit dem Einfluß thematischer Interessen auf die Qualität des Textverstehens. Darüber hinaus sollte der Einfluß von Interesse auf motivationale und kognitive Variablen des Leseprozesses (z.B. Flow-Erleben, Elaborationen) überprüft werden. 53 Studenten wurden auf der Basis eines Fragebogens in hoch und niedrig thematisch interessierte eingeteilt. Die Vpn bekamen einen Text zum Thema „Emotion" zu lesen, angeblich um ihn später zu bewerten. Anschließend wurden retrospektiv die Prozeßvariablen Aktivierung, Flow-Erleben und Elaborationen erhoben. Zusätzlich wurde die Zahl der Unterstreichungen und Notizen registriert. Schließlich erfolgte der Verstehenstest, in dem drei Ebenen der Verstehenstiefe unterschieden wurden. Die Ergebnisse zeigen, daß der Einfluß des thematischen Interesses auf das Verstehen mit zunehmender Verstehenstiefestärker wird. Die Berücksichtigung des Vorwissens und der Intelligenz hatte keine Minderung des Interesseneffekts zur Folge. Interesse führte darüber hinaus zu einer Erhöhung des Aktivierungsniveaus, zu flow-ähnlichem Erleben, zu verstärkten elaborativen Prozessen und zu erhöhter Häufigkeit von Notizen. Die Ergebnisse unterstreichen die Bedeutsamkeit motivationaler Variablen für qualitativ höherwertige Verstehensprozesse.
The influence of topic interest, prior knowledge, and cognitive capabilities on text comprehension
(1990)
The present study investigated the influence of topic interest on the comprehension of texts. The primary goals of the study were as follows: (1) to formulate a new definition of the concept "topic interest", (2) to control for cognitive capabilities (intelligence, short-term memory) and prior knowledge, and(3) to assess different levels of comprehension. A total of 53 male students, majoring in computer science, took part in the study. Subjects were presented with a text on "Psychology of Emotion". Prior to reading the text, they were asked to indicate their level of interest in the topic. After reading the text, subjects were given a test of comprehension involving open-ended questions. The questions were designed to represent different levels of comprehension. The results show that the effect of topic interest on text comprehension is especially pronounced when a deeper level of understanding is required. Surprisingly, prior knowledge had no effect on the level of comprehension. Verbal intelligence, on the other hand, showed a clear effect on comprehension, especially in answering questions of simple knowledge. The effects of interest and verbal intelligence could be shown to be independent of one another.
Es wurde der Zusammenhang zwischen allgemeinem Studieninteresse, Interesse an empirischen Forschungsmethoden sowie dem Leistungsmotiv (unabhängige Variablen) und Umfang, Inhalt und Struktur methodischen Wissens im Studienfach Pädagogik (abhängige Variablen) geprüft. Im Mittelpunkt der Analysen standen die Auswirkungen des Methodeninteresses. Auf der Basis eines Fragebogens wurden 20 Pädagogikstudenten zu Beginn eines Methodenseminars für Studienanfänger in zwei Gruppen mit hohem bzw. niedrigem Methodeninteresse geteilt. Die verschiedenen Aspekte methodenspezifischen Wissens wurden acht Wochen später mittels eines Assoziationstests zu neun Stimulusbegriffen erhoben. Die Ergebnisse belegen, daß hohes Interesse zu qualitativen (Inhalt und Struktur), nicht jedoch zu quantitativen Wissensunterschieden (Umfang) führt.
Ausgehend von der Feststellung, daß die bisherige Forschung zum Textlernen motivationale Variablen, die gerade aus pädagogischer Sicht als sehr bedeutsam erscheinen, vernachlässigt hat, wird ein Überblick über Untersuchungen gegeben, die den Einfluß von Interesse auf das Verstehen von Texten überprüften. Ein Großteil der betrachteten Arbeiten kommt zu dem Ergebnis, daß Interesse eine bedeutsame Rolle beim Textlernen einnimmt. Trotzdem sind eine Reihe von Einwänden vorzubringen, die vor allem Defizite bei der Konzeptualisierung und Messung von Interesse und die Vernachlässigung qualitativer, prozessualer und struktureller Aspekte der Verstehensleistung betreffen. Abschließend wird auf pädagogische Konsequenzen bezüglich der Gestaltung von Lehrtexten hingewiesen.
Motivational conditions have been thus far largely neglected by contemporary theoretical approaches in knowledge psychology. The present article attempts to demonstrate the necessity for the greater integration of both. Suggestions are made regarding the choice and conceptualization of relevant motivational factors. Two possible groups of factors can be distinguished: (1) motivational factors of personality, and (2) motivational effects of action. Available theoretical approaches (e.g., the "levels of processing" approach) and examples are used to clarify the potential effects of these factors on the acquisition and representation of knowledge. Finally, a review is made of empirical studies allowing confirmatory allegations about the posited relationships between motivational factors and processes related to knowledge. This review reveals substantial research deficits on this topic.
Tell Basta
(2003)
ARCUS 5 legt die Befunde und Funde der XIV. Grabungskampagne (2002) in Tell Basta (Bubastis) vor. Im Vordergrund stehen die Grabungsarbeiten im Eingangsbereich des Bastet-Tempels, insbesondere die Freilegung einer kolossalen Königinnenstatue und großer Säulenteile. Darüber hinaus wird die epigraphische und photographische Aufnahme der Reliefs aus dem Nektanebos-Tempel behandelt, verbunden mit einer architektonischen Wertung der Anlage. Die Vermessungsarbeiten konzentrierten sich auf die Vernetzung der früher vermessenen Bereiche, insbesondere von Bastet-Tempel und Pepi-Tempel. Mit Hilfe von digitaler Aufnahme wurden 3D-Modelle der Königinnenstatue und einiger Säulenfragmente erstellt. Die Durchführung materialkundlicher Untersuchungen von Statuen, Reliefs und Säulen aus Granitgneis diente der petrographischen Charakterisierung, der Suche nach Hinweisen auf die Steinbruchsherkunft sowie der Bestimmung des Verwitterungszustands. Im Skulpturengarten wurden sämtliche 25 dort aufgestellten Objekte ausführlich beschrieben. Schließlich liegen Berichte über die Restaurierungsarbeiten an ausgewählten Stücken aus dem Skulpturengarten vor.
Tell Basta
(1996)
- Militär & ländliche Gesellschaft in der FNZ Kolloquium in Rostock (Programm) - Tagung der AG- FNZ, Essen (16.-18. September 1999) - Veröffentlichungen der AMG in der preußischen Armee(B. Käser) - „Vom Untertan zum Staatsbürger...“ (M. Plassmann) - Informationen zum Museum in Wittstock - Absolutistischer Staat und Heeresordnung. (Dr. M. Busch - „Kriegserfahrung und Religion ...1792-1815“ (PD Dr. H. Carl) - „Vom Partheygänger“ zum Partisann (M. Rink) - „Cuius exercitus, eius religio?“ (Dr. M. Kaiser) - „Mars mit Zopf? Aufstieg und Fall des Ernst v. Rüchel“ (1754-1823) (O. Jessen) - AMG-Sitzung auf dem Historikertag in Frankfurt a. M. - Beitrittserklärung
- Ott Heinrich Fugger 1592-1644 (Stephanie Haberer) - Die Militarisierung der Habsburgermonarchie 1740-1790 (Michael Hochedlinger) - Das preußische Kantonsystem in brandenburgischen Städten (Martin Winter) - Söldnerleben am Vorabend des Dreißigjährigen Krieges (Holger Th. Gräf) - Desertion in der Armee Friedrichs des Großen (Jörg Muth) - Sozialstruktur u. politische Wirksamkeit des brandenburgischen Adels (Frank Göse) - Eigensinnige Bauern, ehrgeizige Amtmänner, fürstliche Gutsherren (Heinrich Kaak) - Männlicher Muth und Teutsche Ehre (Karen Hagemann) - Formular für Beitrittserklärung
Die 11beta-HSD1 reguliert intrazellulär die Cortisolkonzentration durch Regeneration von Cortison z.B. aus dem Blutkreislauf, zu Cortisol. Daher stellt diese ein wichtiges Element in der Glucocorticoid-vermittelten Genregulation dar. Die 11beta-HSD1 wird ubiquitär exprimiert, auf hohem Niveau besonders in Leber, Fettgewebe und glatten Muskelzellen. Insbesondere die Bedeutung der 11beta-HSD1 in Leber und Fettgewebe konnte mehrfach nachgewiesen werden. In der Leber führte eine erhöhte Aktivität aufgrund einer Überexpression in Mäusen zu einer verstärkten Gluconeogeneserate. Des Weiteren konnte gezeigt werden, dass eine erhöhte Expression und erhöhte Enzymaktivität der 11beta-HSD1 im subkutanen und viszeralen Fettgewebe assoziiert ist mit Fettleibigkeit, Insulinresistenz und Dyslipidämie. Über die Regulation ist jedoch noch wenig bekannt. Zur Untersuchung der Promotoraktivität wurde der Promotorbereich von -3034 bis +188, vor und nach dem Translations- und Transkriptionsstart, der 11beta-HSD1 kloniert. 8 Promotorfragmente wurden mittels Dual-Luciferase-Assay in humanen HepG2-Zellen sowie undifferenzierten und differenzierten murinen 3T3-L1-Zellen untersucht. Anschließend wurde mittels nicht-radioaktiven EMSA die Bindung des TATA-Binding Proteins (TBP) sowie von CCAAT/Enhancer-Binding-Proteinen (C/EBP) an ausgewählte Promotorregionen analysiert. Nach der Charakterisierung des Promotors wurden spezifische endogene und exogene Regulatoren untersucht. Fettsäuren modifizieren die Entstehung von Adipositas und Insulinresistenz. Ihre Wirkung wird u.a. PPARgamma-abhängig vermittelt und kann durch das Inkretin (Glucose-dependent insulinotropic Peptide) GIP modifiziert werden. So wurden die Effekte von unterschiedlichen Fettsäuren, vom PPARgamma Agonisten Rosiglitazon sowie dem Inkretin GIP auf die Expression und Enzymaktivität der 11beta-HSD1 untersucht. Dies wurde in-vitro-, tierexperimentell und in humanen in-vivo-Studien realisiert. Zuletzt wurden 2 Single Nucleotide Polymorphismen (SNP) im Promotorbereich der 11beta-HSD1 in der Zellkultur im Hinblick auf potentielle Funktionalität analysiert sowie die Assoziation mit Diabetes mellitus Typ 2 und Körpergewicht in der MeSyBePo-Kohorte bei rund 1.800 Personen untersucht. Die Luciferase-Assays zeigten basal eine zell-spezifische Regulation der 11beta-HSD1, wobei in allen 3 untersuchten Zelltypen die Bindung eines Repressors nachgewiesen werden konnte. Zudem konnte eine mögliche Bindung des TBPs sowie von C/EBP-Proteinen an verschiedene Positionen gezeigt werden. Die Transaktivierungsassays mit den C/EBP-Proteinen -alpha, -beta und -delta zeigten eben-falls eine zellspezifische Regulation des 11beta-HSD1-Promotors. Die Aktivität und Expression der 11beta-HSD1 wurde durch die hier untersuchten endogenen und exogenen Faktoren spezifisch modifiziert, was sowohl in-vitro als auch in-vivo in unterschiedlichen Modellsystemen dargestellt werden konnte. Die Charakterisierung der MeSyBePo-Kohorte ergab keine direkten Assoziationen zwischen Polymorphismus und klinischem Phänotyp, jedoch Tendenzen für eine erhöhtes Körper-gewicht und Typ 2 Diabetes mellitus in Abhängigkeit des Genotyps. Der Promotor der 11beta-HSD1 konnte aufgrund der Daten aus den Luciferaseassays sowie den Daten aus den EMSA-Analysen näher charakterisiert werden. Dieser zeigt eine variable und zell-spezifische Regulation. Ein wichtiger Regulator stellen insbesondere in den HepG2-Zellen die C/EBP-Proteine -alpha, -beta und -delta dar. Aus den in-vivo-Studien ergab sich eine Regulation der 11beta-HSD1 durch endogene, exogene und pharmakologische Substanzen, die durch die Zellkulturversuche bestätigt und näher charakterisiert werden konnten.
Diese Arbeit umfasst die Archivierung, Visualisierung anhand bioinformatischer Methoden und Interpretation eines vorhandenen Messdatensatz (Element [ICP-MS]-, Ionen [IC]- und Metabolitdaten [RP-HPLC und GC/TOF-MS]) der Pflanze Arabidopsis thaliana getrennt in Blätter und Wurzeln. Die Pflanzen wurden den sechs Mangelsituationen der Nährstoffe Eisen, Kalium, Magnesium, Stickstoff, Phosphor und Schwefel ausgesetzt und zu neun Messzeitpunkten [0.5-, 1-, 2-, 3-, 4-, 5-, 6-, 7-in Tagen und „resupply“ (vier Stunden nach dem vierten Tag)] analysiert. Es erfolgte die Integration der Messdaten in eine SQlite-Datenbank. Die Veranschaulichung erfolgte mit Hilfe der Programmiersprache R. Anhand einiger Pakete zur Erweiterung des Funktionsumfangs von R wurde erstens eine Schnittstelle zur SQLite- Datenbank hergestellt, was ein Abfragen an diese ermöglichte und zweitens verhalfen sie zu der Erstellung einer Reihe zusätzlicher Darstellungsformen (Heatmap, Wireframe, PCA). Selbstgeschriebene Skripte erlaubten den Datenzugriff und die grafische Ausgabe als z. B. Heatmaps. In der Entstehung dieser Arbeit sind weiterhin zwei weitere Visualisierungsformen von PCA-Daten entwickelt worden: Das Abstandsdiagramm und die animierte PCA. Beides sind hilfreiche Werkzeuge zur Interpretation von PCA-Plots eines zeitlichen Verlaufes. Anhand der Darstellungen der Element- und Ionendaten ließen sich die Nährstoffmangelsituationen durch Abnahme der entsprechenden Totalelemente und Ionen nachweisen. Weiterhin sind starke Ähnlichkeiten der durch RP-HPLC bestimmten Metaboliten unter Eisen-, Kalium und Magnesiummangel erkannt worden. Allerdings gibt es nur eine geringe Anzahl an Interkationen der Metabolitgehalte, da der Großteil der Metabolitlevel im Vergleich zur Kontrolle unverändert blieb. Der Literaturvergleich mit zwei Publikationen, die den Phosphat- und Schwefelmangel in Arabidopsis thaliana untersuchten, zeigte ein durchwachsenes Ergebnis. Einerseits gab es eine gleiche Tendenz der verglichenen Aminosäuren zu verzeichen, aber andererseits wiesen die Visualisierungen auch Gegensätzlichkeiten auf. Der Vergleich der mit RP-HPLC und GC/TOF-MS gemessenen Metaboliten erbrachte ein sehr kontroverses Ergebnis. Zum einen wurden Übereinstimmungen der gleichen Metaboliten durch gemeinsame Cluster in den Heatmaps beobachtet, zum anderen auch Widersprüche, exemplarisch in den Abstandsdiagrammen der Blätterdaten jedes Verfahrens, in welchen unterschiedliche Abstandshöhepunkte erkennbar sind.
Content: 1 The Development of the Estonian Gender Policy Machinery 1.1 Initiation of Institutionalisation as a Result of International Commitments 1.2 Institutional Measures Facilitating EU Membership 1.3 Assessment of the Gender Equality Machinery 2 Conditions for Gender Mainstreaming in Estonia 2.1 Social Conditions 2.2 Administrative Conditions 3 Gender Mainstreaming Activities in the Estonian Public Administration 3.1 The Legal Foundations 3.2 Inter-ministerial Cooperation 3.3 Gender Mainstreaming Training 3.4 Knowledge Basis 3.5 Lack of Standards for data and Statistics 3.6 Non-adminsitrative Liaisons 4 Conclusion
One of the main problems in machine learning is to train a predictive model from training data and to make predictions on test data. Most predictive models are constructed under the assumption that the training data is governed by the exact same distribution which the model will later be exposed to. In practice, control over the data collection process is often imperfect. A typical scenario is when labels are collected by questionnaires and one does not have access to the test population. For example, parts of the test population are underrepresented in the survey, out of reach, or do not return the questionnaire. In many applications training data from the test distribution are scarce because they are difficult to obtain or very expensive. Data from auxiliary sources drawn from similar distributions are often cheaply available. This thesis centers around learning under differing training and test distributions and covers several problem settings with different assumptions on the relationship between training and test distributions-including multi-task learning and learning under covariate shift and sample selection bias. Several new models are derived that directly characterize the divergence between training and test distributions, without the intermediate step of estimating training and test distributions separately. The integral part of these models are rescaling weights that match the rescaled or resampled training distribution to the test distribution. Integrated models are studied where only one optimization problem needs to be solved for learning under differing distributions. With a two-step approximation to the integrated models almost any supervised learning algorithm can be adopted to biased training data. In case studies on spam filtering, HIV therapy screening, targeted advertising, and other applications the performance of the new models is compared to state-of-the-art reference methods.
Arbeit und Magie werden in der ländlichen Gesellschaft der Frühen Neuzeit neu bewertet. Während die Reformation die Arbeit aufwertet, verteufelt sie den Müßiggang. Als zentrale Lebensäußerung bei der man häufig mit dem Lebensbereich des Anderen in Berührung kommt, birgt Arbeit ein hohes Konfliktpotential in sich. Als Glaubensform basiert Magie auf kollektiven Übereinkünften und strebt einen praktikablen Umgang mit feindseligen Mächten an, so dass sie mit Formen alltäglicher Konfliktaustragung (Gegenzauber, Bezichtigung als Zauberer/Zauberin) bekämpft werden können. Auf Magie als Deutung oder Handlung haben ihre beginnende Kriminalisierung (Carolina) und das Vordringen der Schriftlichkeit nachhaltigen Einfluss. Aus diesen Veränderungen heraus empfängt das Themenpaar Arbeit und Magie seine Bedeutung, das hier in seinem Zusammenwirken erstmals untersucht wird und zwar am Beispiel der Mittelmark. Wie die Auswertung von Gesuchen mittelmärkischer Gerichte um Rechtsbelehrung an den Schöppenstuhl in Brandenburg zum neuen Delikt der Zauberei im Zeitraum von 1551 bis 1620 beweist, handelt es sich bei der Mittelmark um ein verfolgungsarmes Territorium, das sich daher bestens für die Untersuchung des selbstverständlichen Umgangs mit Magie eignet. In 98 von 136 Prozessen sind insgesamt 107 Frauen und 9 Männer angeklagt – darunter eine „weise Frau“ und zwei Männer als volksmagische Spezialisten. Der Höhepunkt der Spruchtätigkeit liegt zwischen 1571 und 1580. In dieser Phase tauchen erstmals dämonischer Vorstellungen auf und werden weibliche Magiedelikte auch auf Männer übertragen (Schadenszauber, Teufelspakt). Der Vorwurf des Teufelspaktes ist überwiegend im Nordwesten der Mittelmark anzutreffen und wird hier auch zuerst erhoben. Dennoch kann sich der dämonische Hexenglauben als städtisches Phänomen in der ländlich geprägten Mittelmark kaum durchsetzen, denn in keinem der untersuchten Fälle taucht der Terminus „Hexe“ auf. Die Rezeption der Hexenlehre in all ihren wesentlichen Elementen (Buhlschaft, Zusammenkunft auf dem Blocksberg und die Fahrt dorthin) ist erst 1613 abgeschlossen. Damit kommt sie für die Mittelmark zu spät, um ihre zerstörerische Wirkung zu entfalten: Die Auswirkungen des Dreißigjährigen Krieges überlagern alsbald die Vorstellungen von „bösen Zauberinnen“. Mit Hilfe der Studien von RAINER WALZ zur magischen Kommunikation und EVA LABOUVIE (Offizialisierungsstrategien) wurden drei Fälle näher untersucht, in denen die Arbeit entweder Konfliktanlass ist, mit magischen Mitteln beeinflusst wird oder es um die professionelle Ausübung von Magie im Bezug auf ländliche Arbeit geht. In Nassenheide wird 1573 dem Bauern Peter Calys das Abzaubern von Feldfrüchten unterstellt. Seine Nachbarschaft beobachtet ein ihr unbekanntes Ritual (vermutlich eine Schädlingsbekämpfung), was sie in kein geduldetes magisches Handeln einordnen kann. In Liebenwalde geht es 1614 um „fliegende Worte“, die im Streit um erschlagene Gänse ausgesprochen und später, nach einer Reihe von Unglücksfällen, vom Gescholtenen als Flüche umgedeutet werden. In Rathenow steht 1608 der Volksmagier Hermann Mencke vor Gericht. Sein Repertoire an magischen Hilfsleistungen umfasst Bann-, Heil- und Hilfszauber. Diese drei Fallstudien ergaben für das Thema Arbeit und Magie, dass Magie in der sich schwerfällig entwickelnden Landwirtschaft ein innovatives Potential zukommt. Das Experimentieren mit Magieformen bleibt jedoch Spezialisten der Volksmagie vorbehalten. Insbesondere in den Dörfern, wo die Grenzen zwischen männlicher und weiblicher Magie durchlässig sind, erweist sich die Geschlechtsspezifik der volkstümlichen Magie als Produkt der Lebens- und Arbeitsbeziehungen in der ländlichen Gesellschaft. Männer wie Frauen verfügen über die zu ihren Arbeitsbereichen passenden Hilfszauber. Dass Zauber zu Frauenarbeiten wie Milchverarbeitung und Bierbrauen überwiegen, liegt neben der Häufigkeit, mit der diese Verrichtungen anfallen, ihrer Anfälligkeit für Fehler und ihrer Bedeutung für die Ernährung daran, dass sie sich im Verborgenen abspielen und daher verdächtig sind. Außerdem handelt es sich um mühselige und monotone Tätigkeiten, die daher der Motivation durch Magie bedürfen. Die Schlichtheit der weiblichen Magie korrespondiert mit der geringeren Spezialisierung weiblicher Arbeit in der Landwirtschaft, die sich in der Verwendung einfacher Werkzeuge bekundet. Wörter können wegen der spezifischen Organisation der Hirnareale zur Sprachverarbeitung in einer auf Mündlichkeit beruhenden Kultur heilen oder eine lebensbedrohliche Waffe sein. Indem Magie das Profane dramatisiert, kommt ihr die Funktion einer Erinnerungskunst zu, die später durch die Schrift ausgefüllt wird. Die Schrift macht Magie als Mnemotechnik überflüssig und immunisiert gegen die Macht des Wortes. Damit reift auch die Skepsis an der Wirksamkeit von Magie. Schließlich werden Schadenszaubervorwürfe nur noch als Injurienklagen verhandelt. Sie bestimmen die Prozesse um Zauberei nach dem Großen Krieg.
Was treibt den Ölpreis?
(2009)
Der Rohölpreis wird über Angebot und Nachfrage reguliert – so jedenfalls die landläufige Auffassung. Die Autoren, beide ausgewiesene Energieexperten, zeigen jedoch auf, dass sich die drastischen Preisschwankungen auf den Energiemärkten nicht allein durch Marktmechanismen erklären lassen. Stattdessen führen sie den volatilen Ölpreis auf politische (Fehl-) Entscheidungen zurück und empfehlen einen Energiedialog zwischen Verbrauchern und Produzenten.
(1) Über die Notwendigkeit, die bisherige Informatik in eine Grundlagenwissenschaft und eine Ingenieurwissenschaft aufzuspalten (2) Was ist Ingenieurskultur? (3) Das Kommunikationsproblem der Informatiker und ihre Unfähigkeit, es wahrzunehmen (4) Besonderheiten des Softwareingenieurwesens im Vergleich mit den klassischen Ingenieurdisziplinen (5) Softwareingenieurspläne können auch für Nichtfachleute verständlich sein (6) Principles for Planning Curricula in Software Engineering
This document presents the results of the seminar "Coneptual Arachitecture Patterns" of the winter term 2002 in the Hasso-Plattner-Institute. It is a compilation of the student's elaborations dealing with some conceptual architecture patterns which can be found in literature. One important focus laid on the runtime structures and the presentation of the patterns. 1. Introduction 1.1. The Seminar 1.2. Literature 2 Pipes and Filters (André Langhorst and Martin Steinle) 3 Broker (Konrad Hübner and Einar Lück) 4 Microkernel (Eiko Büttner and Stefan Richter) 5 Component Configurator (Stefan Röck and Alexander Gierak) 6 Interceptor (Marc Förster and Peter Aschenbrenner) 7 Reactor (Nikolai Cieslak and Dennis Eder) 8 Half–Sync/Half–Async (Robert Mitschke and Harald Schubert) 9 Leader/Followers (Dennis Klemann and Steffen Schmidt)
1. Applikationen für weitverteiltes Rechnen Dennis Klemann, Lars Schmidt-Bielicke, Philipp Seuring 2. Das Globus-Toolkit Dietmar Bremser, Alexis Krepp, Tobias Rausch 3. Open Grid Services Architecture Lars Trieloff 4. Condor, Condor-G, Classad Stefan Henze, Kai Köhne 5. The Cactus Framework Thomas Hille, Martin Karlsch 6. High Performance Scheduler mit Maui/PBS Ole Weidner, Jörg Schummer, Benedikt Meuthrath 7. Bandbreiten-Monitoring mit NWS Alexander Ritter, Gregor Höfert 8. The Paradyn Parallel Performance Measurement Tool Jens Ulferts, Christian Liesegang 9. Grid-Applikationen in der Praxis Steffen Bach, Michael Blume, Helge Issel
This document is an analysis of the 'Java Language Conversion Assistant'. Itr will also cover a language analysis of the Java Programming Language as well as a survey of related work concerning Java and C# interoperability on the one hand and language conversion in general on the other. Part I deals with language analysis. Part II covers the JLCA tool and tests used to analyse the tool. Additionally, it gives an overview of the above mentioned related work. Part III presents a complete project that has been translated using the JLCA.
The Apache Modeling Project
(2004)
This document presents an introduction to the Apache HTTP Server, covering both an overview and implementation details. It presents results of the Apache Modelling Project done by research assistants and students of the Hasso–Plattner–Institute in 2001, 2002 and 2003. The Apache HTTP Server was used to introduce students to the application of the modeling technique FMC, a method that supports transporting knowledge about complex systems in the domain of information processing (software and hardware as well). After an introduction to HTTP servers in general, we will focus on protocols and web technology. Then we will discuss Apache, its operational environment and its extension capabilities— the module API. Finally we will guide the reader through parts of the Apache source code and explain the most important pieces.
1. Grundlagen der Softwarevisualisierung Johannes Bohnet und Jürgen Döllner 2. Visualisierung und Exploration von Softwaresystemen mit dem Werkzeug SHriMP/Creole Alexander Gierak 3. Annex: SHriMP/Creole in der Anwendung Nebojsa Lazic 4. Metrikbasierte Softwarevisualisierung mit dem Reverse-Engineering-Werkzeug CodeCrawler Daniel Brinkmann 5. Annex: CodeCrawler in der Anwendung Benjamin Hagedorn 6. Quellcodezeilenbasierte Softwarevisualisierung Nebojsa Lazic 7. Landschafts- und Stadtmetaphern zur Softwarevisualisierung Benjamin Hagedorn 8. Visualisierung von Softwareevolution Michael Schöbel 9. Ergebnisse und Ausblick Johannes Bohnet Literaturverzeichnis Autorenverzeichnis
1 Einleitung 1.1 Motivation 1.2 Aufgabenstellung 1.3 Aufbau der Arbeit 2 Fachliches Umfeld 2.1 Grid Computing 2.2 Idle Time Computing 3 Ressourcenpartitionierung 3.1 Ressourcenpartitionierung und Scheduling 3.2 Ressourcenpartitionierung in Idle Time Computing 3.2.1 Administrative Kontrolle der Ressourcen 3.2.2 Mindestgarantien zur Sicherstellung der Lauffähigkeit 3.3 Vorhandene Lösungen und verwandte Arbeiten 3.3.3 Ressourcenmanagement im Globus Toolkit 3.3.4 Ressourcenmanagement in Condor 3.3.5 Das GARA Framework 3.3.6 Distributed Resource Management Application API 3.3.7 Grid Resource Allocation Agreement Protocol 3.3.8 SNAP 3.3.9 OGSI-Agreement 3.3.10 PBS/Maui und andere Batch Systeme 3.3.11 Wide Area Distributed Computing 3.3.12 Weitere verwandte Arbeiten 3.3.13 Überlegungen zum Ressourcenbedarf 4 Ressourcenkontrolle in Desktopbetriebssystemen 4.1 Ressourcen 4.2 Ressourcenpartitionierung unter Linux 4.2.14 Festplattenkapazität 4.2.15 Arbeitsspeicher 4.2.16 Netzwerkbandbreite 4.2.17 CPU Kapazität 4.3 Ressourcenpartitionierung unter Microsoft Windows XP 4.3.18 Festplattenkapazität 4.3.19 Arbeitsspeicher 4.3.20 Netzwerkbandbreite 4.3.21 CPU Kapazität 4.4 Fazit 5 Entwurf und Design des Frameworks 5.1 Entwurfsgrundlage - Komponentenarchitektur 5.2 Architektur 5.2.22 Broker Server 5.2.23 Broker Software auf den Clients 5.2.24 Schnittstellen 5.3 Komponententypmodell 5.4 Ressourcenidentifikation und Ressourcenzuordnung 5.5 Anbindung ans Grid 5.6 Datenbankentwurf 5.7 XML RPC Schnittstelle 6 Implementierung 6.1 Broker Server 6.1.25 Datenbank 6.1.26 Komponenten 6.1.27 Webserverskripte 6.1.28 Database Crawler 6.2 Komponenten 6.2.29 Network 6.2.30 DSCP 6.2.31 Quota 6.2.32 FSF 6.3 Linux Client 6.3.33 Broker Client 6.3.34 Komponenten 6.4 Windows Client 6.5 Abhängigkeiten 7 Evaluierung 7.1 Durchgeführte Test- und Anwendungsfälle 7.1.35 Test der Clientsoftware 7.1.36 Test der Serversoftware 7.1.37 Durchführbare Anwendungsfälle 7.2 Evaluierung der Frameworkimplementierung 7.2.38 Performanz der Serverimplementierung 7.2.39 Zuverlässigkeit der Partitionierungen 7.3 Evaluierung von Traffic Shaping mit iproute2 7.3.40 Szenario 1 7.3.41 Szenario 2 7.3.42 Szenario 3 7.3.43 Fazit 8 Zusammenfassung und Ausblick 8.1 Fazit 8.2 Weiterentwicklung 8.2.44 Weiterentwicklungen auf Entwurfsebene 8.2.45 Weiterentwicklungen auf Implementierungsebene Anhang A: Details zum Datenbankentwurf Anhang B: Bildschirmfotos der Weboberfläche Anhang C: Quellcode Linux Broker Client Anhang D: Inhalt des beiliegenden Datenträgers
Vorwort 1. Einleitung 2. Statische vs. dynamische Analyse 3. Kriterien für den Erfolg statischer Quellcodeanalysemethoden 3.1. Theoretische Vorüberlegungen 3.2. 1. Kriterium: Verfügbarkeit des Quellcodes 3.3. 2. Kriterium: Unterstützung der Programmiersprache 3.4. 3. Kriterium: Zulassung von „echten“ Programmen der Problemdomäne 3.5. 4. Kriterium: Bewältigung der auftretenden Komplexität 3.6. 5. Kriterium: Schutz vor böswilliger Speichermanipulation 3.7. 6. Kriterium: Garantie für die Umgebung des laufenden Prozesses 3.8. Fazit 3.9. Verwandte Arbeiten 4. Bewertung von statischen Methoden für C/C++ typische Programme 4.1. Hintergrund 4.2. Prämissen 4.3. 1. Problemfeld: Programmgröße und Interferenz 4.4. 2. Problemfeld: Semantik 4.5. 3. Problemfeld: Programmfluss 4.6. 4. Problemfeld: Zeigerarithmetik 4.7. Dynamische Konzepte zur Erfüllung des fünften Kriteriums auf Quellcodebasis 4.8. Fazit 4.9. Verwandte Arbeiten 5. Kriterien für den Erfolg dynamischer Ansätze 5.1. Hintergrund 5.2. Verfügbarkeit des Quellcodes 5.3. Unterstützung der Programmiersprache 5.4. Zulassung von „echten“ Programmen aus der Problemdomäne 5.5. Bewältigung der auftretenden Komplexität 5.6. Schutz vor böswilliger Speichermanipulation 5.7. Garantie für die Umgebung des laufenden Prozesses 5.8. Fazit 6. Klassifikation und Evaluation dynamischer Ansätze 6.1. Hintergrund 6.2. Quellcodesubstitution 6.3. Binärcodemodifikation/Binary-Rewriting 6.4. Maschinencodeinterpreter 6.5. Intrusion-Detection-Systeme 6.6. Virtuelle Maschinen/Safe Languages 6.7. Mechanismen zur „Härtung“ von bestehenden Code 6.8. SandBoxing/System-Call-Interposition 6.9. Herkömmliche Betriebssystemmittel 6.10. Access-Control-Lists/Domain-Type-Enforcement 6.11. Fazit 7. Sichere Ausführung nicht vertrauenswürdiger Programme im Kontext von RealTimeBattle 7.1. Vorstellung von RealTimeBattle 7.2. Charakterisierung des Problems 7.3. Alternative Lösungsvarianten/Rekapitulation 7.4. Übertragung der Ergebnisse statischer Analysemethoden auf RealTimeBattle 7.5. Übertragung der Ergebnisse dynamischer Analysemethoden auf RealTimeBattle 7.5.1. Vorstellung der RSBAC basierten Lösung 7.5.2. Vorstellung der Systrace basierten Lösung 7.6. Fazit 7.7. Verwandte Arbeiten 8. Sichere Ausführung nicht vertrauenswürdiger Programme im Kontext von Asparagus 8.1. Vorstellung von Asparagus 8.2. Charakterisierung des Problems 8.3. Lösung des Problems 8.4. Fazit 8.5. Verwandte Arbeiten 9. Sichere Ausführung nicht vertrauenswürdiger Programme im Kontext vom DCL 9.1. Vorstellung des DCL 9.2. Charakterisierung des Problems 9.3. Experimente im DCL und die jeweilige Lösung 9.3.1. Foucaultsches Pendel 9.3.2. Lego Mindstorm Roboter 9.3.3. Hau den Lukas 9.4. Fazit 9.5. Verwandte Arbeiten 10. Sichere Ausführung nicht vertrauenswürdiger Programme im Kontext der semiautomatischen Korrektur von Betriebssystemarchitektur-Übungsaufgaben 10.1. Vorstellung des Übungsbetriebes zur Vorlesung „Betriebssystsemarchitektur 10.2. Charakterisierung des Problems 10.3. Lösungsvorschläge 10.3.1. Lösungsvorschläge für das Authentifizierungs-Problem 10.3.2. Lösungsvorschläge für das Transport-Problem 10.3.3. Lösungsvorschläge für das Build-Problem 10.3.4. Lösungsvorschläge für das Ausführungs-Problem 10.3.5. Lösungsvorschläge für das Ressourcen-Problem 10.3.6. Lösungsvorschläge für das Portabilitäts-Problem 10.4. Fazit 10.5. Verwandte Arbeiten 11. Schlussbetrachtungen Literaturverzeichnis Anhang -create_guardedrobot.sh: Die RealTimeBattle Security Infrastructure -vuln.c: Ein durch Pufferüberlauf ausnutzbares Programm -exploit.c: Ein Beispielexploit für vuln.c. -aufg43.c: Lösung für eine Aufgabe im Rahmen der Betriebssystemarchitektur-Übung -Handout: Sichere Ausführung nicht vertrauenswürdiger Programme
1 Introduction 1.1 Project formulation 1.2 Our contribution 2 Pedagogical Aspect 4 2.1 Modern teaching 2.2 Our Contribution 2.2.1 Autonomous and exploratory learning 2.2.2 Human machine interaction 2.2.3 Short multimedia clips 3 Ontology Aspect 3.1 Ontology driven expert systems 3.2 Our contribution 3.2.1 Ontology language 3.2.2 Concept Taxonomy 3.2.3 Knowledge base annotation 3.2.4 Description Logics 4 Natural language approach 4.1 Natural language processing in computer science 4.2 Our contribution 4.2.1 Explored strategies 4.2.2 Word equivalence 4.2.3 Semantic interpretation 4.2.4 Various problems 5 Information Retrieval Aspect 5.1 Modern information retrieval 5.2 Our contribution 5.2.1 Semantic query generation 5.2.2 Semantic relatedness 6 Implementation 6.1 Prototypes 6.2 Semantic layer architecture 6.3 Development 7 Experiments 7.1 Description of the experiments 7.2 General characteristics of the three sessions, instructions and procedure 7.3 First Session 7.4 Second Session 7.5 Third Session 7.6 Discussion and conclusion 8 Conclusion and future work 8.1 Conclusion 8.2 Open questions A Description Logics B Probabilistic context-free grammars
E-learning is a flexible and personalized alternative to traditional education. Nonetheless, existing e-learning systems for IT security education have difficulties in delivering hands-on experience because of the lack of proximity. Laboratory environments and practical exercises are indispensable instruction tools to IT security education, but security education in con-ventional computer laboratories poses the problem of immobility as well as high creation and maintenance costs. Hence, there is a need to effectively transform security laboratories and practical exercises into e-learning forms. This report introduces the Tele-Lab IT-Security architecture that allows students not only to learn IT security principles, but also to gain hands-on security experience by exercises in an online laboratory environment. In this architecture, virtual machines are used to provide safe user work environments instead of real computers. Thus, traditional laboratory environments can be cloned onto the Internet by software, which increases accessibilities to laboratory resources and greatly reduces investment and maintenance costs. Under the Tele-Lab IT-Security framework, a set of technical solutions is also proposed to provide effective functionalities, reliability, security, and performance. The virtual machines with appropriate resource allocation, software installation, and system configurations are used to build lightweight security laboratories on a hosting computer. Reliability and availability of laboratory platforms are covered by the virtual machine management framework. This management framework provides necessary monitoring and administration services to detect and recover critical failures of virtual machines at run time. Considering the risk that virtual machines can be misused for compromising production networks, we present security management solutions to prevent misuse of laboratory resources by security isolation at the system and network levels. This work is an attempt to bridge the gap between e-learning/tele-teaching and practical IT security education. It is not to substitute conventional teaching in laboratories but to add practical features to e-learning. This report demonstrates the possibility to implement hands-on security laboratories on the Internet reliably, securely, and economically.
1. Design and Composition of 3D Geoinformation Services Benjamin Hagedorn 2. Operating System Abstractions for Service-Based Systems Michael Schöbel 3. A Task-oriented Approach to User-centered Design of Service-Based Enterprise Applications Matthias Uflacker 4. A Framework for Adaptive Transport in Service- Oriented Systems based on Performance Prediction Flavius Copaciu 5. Asynchronicity and Loose Coupling in Service-Oriented Architectures Nikola Milanovic
Dynamics in urban environments encompasses complex processes and phenomena such as related to movement (e.g.,traffic, people) and development (e.g., construction, settlement). This paper presents novel methods for creating human-centric illustrative maps for visualizing the movement dynamics in virtual 3D environments. The methods allow a viewer to gain rapid insight into traffic density and flow. The illustrative maps represent vehicle behavior as light threads. Light threads are a familiar visual metaphor caused by moving light sources producing streaks in a long-exposure photograph. A vehicle’s front and rear lights produce light threads that convey its direction of motion as well as its velocity and acceleration. The accumulation of light threads allows a viewer to quickly perceive traffic flow and density. The light-thread technique is a key element to effective visualization systems for analytic reasoning, exploration, and monitoring of geospatial processes.
Die Kombination von Polymeren mit Peptiden vereint die Eigenschaften beider Stoffklassen miteinander. Dabei können die strukturbildenden Eigenschaften der Peptide genutzt werden, um Polymere zu organisieren. In der vorliegenden Arbeit wurde ein Polymer-Peptid-Konjugat verwendet, das sich in Wasser zu Bändern anordnet. Die treibende Kraft für diesen Prozess ist die Anordnung des Peptidteils zu β-Faltblattstrukturen. Das Polymer-Peptid-Aggregat besitzt einen Peptidkern mit funktionalen Oberflächen, der lateral von einer Polyethylenoxidschale umgeben ist. Durch Änderung der Peptidsequenz war es bisher möglich, die Eigenschaften dieser Fasern zu variieren. In der Arbeit wird ein modularer Ansatz zur vielfältigen Modifizierung einer Polymer-Peptid-Faser entwickelt. So ist es möglich, die Eigenschaften der Fasern einzustellen, ohne die strukturbildende β-Faltblattsequenz verändern zu müssen. Um weitere Funktionen an den Fasern anzubringen, wurde die 1,3-dipolaren Addition verwendet. Diese Reaktion beschreibt die konzertierte Umlagerung eines Azides mit einem Alkin. Sie ist in den meisten Lösungsmitteln unter hohen Ausbeuten durchführbar. Im Rahmen der Arbeit wird die Erzeugung von Aziden untersucht und auf die Polymer-Peptid-Fasern übertragen. Der Diazotransfer stellte dabei die Methode der Wahl dar, so können Azidgruppen aus Aminen gewonnen werden. Unter Verwendung der 1,3-dipolaren Addition konnten verschiedene alkinfunktionale Moleküle kovalent an die azidfunktionalisierten Polymer-Peptid-Fasern gebunden werden. So wurde ein Fluoreszenzfarbstoff an die Fasern gebunden, der eine Abbildung der Fasern mittels konfokaler Mikroskopie erlaubte. Weiterhin wurden die Eigenschaften der Fasern durch Addition dreier carboxylfunktionaler Moleküle modifiziert. Diese Fasern konnten weiter genutzt werden, um Kalzium zu binden. Dabei variierte die Anzahl der gebundenen Kalziumionen in Abhängigkeit der jeweiligen Fasermodifikation erheblich. Weitere Untersuchungen, die Morphologie von Kalziumcarbonatkristallen betreffend, werden aktuell durchgeführt. Die kovalente Anbringung eines reduzierenden Zuckers an die Polymer-Peptid-Fasern erlaubt die Abscheidung von Silber aus Tollens Reagenz. Durch eine Entwicklung analog zur Schwarz-Weiss-Photographie können in nachfolgenden Arbeiten so Silberdrähte in Nanogröße erzeugt werden. An die azidfunktionalen Fasern können weitere funktionale Moleküle angebracht werden, um die Eigenschaften und das Anwendungsspektrum der Polymer-Peptid-Fasern zu erweitern.
Submarine landslides can generate local tsunamis posing a hazard to human lives and coastal facilities. Two major related problems are: (i) quantitative estimation of tsunami hazard and (ii) early detection of the most dangerous landslides. This thesis focuses on both those issues by providing numerical modeling of landslide-induced tsunamis and by suggesting and justifying a new method for fast detection of tsunamigenic landslides by means of tiltmeters. Due to the proximity to the Sunda subduction zone, Indonesian coasts are prone to earthquake, but also landslide tsunamis. The aim of the GITEWS-project (German-Indonesian Tsunami Early Warning System) is to provide fast and reliable tsunami warnings, but also to deepen the knowledge about tsunami hazards. New bathymetric data at the Sunda Arc provide the opportunity to evaluate the hazard potential of landslide tsunamis for the adjacent Indonesian islands. I present nine large mass movements in proximity to Sumatra, Java, Sumbawa and Sumba, whereof the largest event displaced 20 km³ of sediments. Using numerical modeling, I compute the generated tsunami of each event, its propagation and runup at the coast. Moreover, I investigate the age of the largest slope failures by relating them to the Great 1977 Sumba earthquake. Continental slopes off northwest Europe are well known for their history of huge underwater landslides. The current geological situation west of Spitsbergen is comparable to the continental margin off Norway after the last glaciation, when the large tsunamigenic Storegga slide took place. The influence of Arctic warming on the stability of the Svalbard glacial margin is discussed. Based on new geophysical data, I present four possible landslide scenarios and compute the generated tsunamis. Waves of 6 m height would be capable of reaching northwest Europe threatening coastal areas. I present a novel technique to detect large submarine landslides using an array of tiltmeters, as a possible tool in future tsunami early warning systems. The dislocation of a large amount of sediment during a landslide produces a permanent elastic response of the earth. I analyze this response with a mathematical model and calculate the theoretical tilt signal. Applications to the hypothetical Spitsbergen event and the historical Storegga slide show tilt signals exceeding 1000 nrad. The amplitude of landslide tsunamis is controlled by the product of slide volume and maximal velocity (slide tsunamigenic potential). I introduce an inversion routine that provides slide location and tsunamigenic potential, based on tiltmeter measurements. The accuracy of the inversion and of the estimated tsunami height near the coast depends on the noise level of tiltmeter measurements, the distance of tiltmeters from the slide, and the slide tsunamigenic potential. Finally, I estimate the applicability scope of this method by employing it to known landslide events worldwide.
Region-Nation-Europa
(2009)
Politische Theorie hat ihre Zeit und ihren Ort. Die Potsdamer Reihe ‚Region-Nation-Europa’ geht von der Region Berlin-Brandenburg in der neuen Mitte Europas aus. Durch den europäischen Integrationsprozess gibt es tief eingreifende Entscheidungen, die von den Bevölkerungen diskutiert und bestätigt werden müssen. Politische Theorie muss in der Fortschrittskrise einer verstädterten Welt urban aufgeklärte Theorie sein, sie ist ein Produkt der Stadt und nicht der Schule.
This thesis investigates the Casimir effect between plates made of normal and superconducting metals over a broad range of temperatures, as well as the Casimir-Polder interaction of an atom to such a surface. Numerical and asymptotical calculations have been the main tools in order to do so. The optical properties of the surfaces are described by dielectric functions or optical conductivities, which are reviewed for common models and have been analyzed with special weight on distributional properties and causality. The calculation of the Casimir energy between two normally conducting plates (cavity) is reviewed and previous work on the contribution to the Casimir energy due to the surface plasmons, present in all metallic cavities, has been generalized to finite temperatures for the first time. In the field of superconductivity, a new analytical continuation of the BCS conductivity to to purely imaginary frequencies has been obtained both inside and outside the extremely dirty limit of vanishing mean free path. The Casimir free energy calculated from this description was shown to coincide well with the values obtained from the two fluid model of superconductivity in certain regimes of the material parameters. The Casimir entropy in a superconducting cavity fulfills the third law of thermodynamics and features a characteristic discontinuity at the phase transition temperature. These effects were equally encountered in the Casimir-Polder interaction of an atom with a superconducting wall. The magnetic dipole coupling of an atom to a metal was shown to be highly sensible to dissipation and especially to the surface currents. This leads to a strong quenching of the magnetic Casimir-Polder energy at finite temperature. Violations of the third law of thermodynamics are encountered in special models, similar to phenomena in the Casimir-effect between two plates, that are debated controversely. None of these effects occurs in the analog electric dipole interaction. The results of this work suggest to reestablish the well-known plasma model as the low temperature limit of a superconductor as in London theory rather than use it for the description of normal metals. Superconductors offer the opportunity to control the dissipation of surface currents to a great extent. This could be used to access experimentally the low frequency optical response of metals, which is strongly connected to the thermal Casimir-effect. Here, differently from corresponding microwave experiments, energy and momentum are independent quantities. A measurement of the total Casimir-Polder interaction of atoms with superconductors seems to be in reach in today’s microchip-based atom-traps and the contribution due to magnetic coupling might be accessed by spectroscopic techniques
Ein genereller Ansatz zur Charakterisierung von biologischen Systemen bietet die Untersuchung des Metaboloms, dessen Analyse als „Metabolomics“ bezeichnet wird. “Omics”- Technologien haben das Ziel, ohne Selektionskriterien möglichst alle Bestandteile einer biologischen Probe zu detektieren (identifizieren und quantifizieren), um daraus Rückschlüsse auf nicht vorhersehbare und somit neuartige Korrelationen in biologischen Systemen zu ziehen. Ein zentrales Dogma in der Biologie besteht in der Kausalität zwischen Gen – Enzym – Metabolite. Perturbationen auf einer Ebene rufen systemische Antworten hervor, die in einem veränderten Phänotyp münden können. Metabolite sind die Endprodukte von zellulären regulatorischen Prozessen, deren Abundanz durch die Resonanz auf genetische Modifikationen oder Umwelteinflüsse zurückzuführen ist. Zudem repräsentieren Metabolite ultimativ den Phänotyp eines Organismus und haben die Fähigkeit als Biomarker zu fungieren. Die integrale Analyse verschiedenster Stoffwechselwegen wie Krebszyklus, Pentosephosphatzyklus oder Calvinzyklus offeriert die Identifikation von metabolischen Mustern. In dieser Arbeit wurden sowohl das targeted Profiling via GC-TOF-MS als auch das untargeted Profiling via GC-TOF-MS und LC-FT-MS als analytische Strategien genutzt, um biologische Systeme anhand ihrer Metabolite zu charakterisieren und um physiologische Muster als Resonanz auf endogene oder exogene Stimuli zu erkennen. Dabei standen die metabolische, phänotypische und genotypische Plastizität von Pflanzen im Fokus der Untersuchungen. Metabolische Varianzen eines Phänotyps reflektieren die genotyp-abhängige Resonanz des Organismus auf umweltbedingte Parameter (abiotischer und biotischer Stress, Entwicklung) und können mit sensitiven Metabolite Profiling Methoden determiniert werden. Diese Anwendungen haben unter anderem auch zum Begriff des „Environmental Metabolomics“ geführt. In Kapitel 2 wurde der Einfluss biotischer Interaktionen von endophytischen Bakterien auf den Metabolismus von Pappelklonen untersucht; Kapitel 3 betrachtet die metabolische Plastizität von Pflanzen im Freiland auf veränderte biotische Interaktionsmuster (Konkurrenz/Diversität/Artenzusammensetzung); Abschließend wurde in Kapitel 4 der Einfluss von spezifischen genetischen Modifikationen an Peroxisomen und den daraus resultierenden veränderten metabolischen Fluss der Photorespiration dargestellt. Aufgrund der sensitiven Analyse- Technik konnten metabolische Phänotypen, die nicht zwingend in einen morphologischen Phänotyp mündeten, in drei biologischen Systemen identifiziert und in einen stoffwechselphysiologischen Kontext gestellt werden. Die drei untersuchten biologischen Systeme – in vitro- Pappeln, Grünland- Arten (Arrhenatherion-Gesellschaft) und der Modellorganismus (Arabidopsis) – belegten anschaulich die Plastizität des Metabolismus der Arten, welche durch endogene oder exogene Faktoren erzeugt wurden.
Die Induktion antioxidativer Enzyme gilt als eine Möglichkeit, die antioxidative Kapazität von Zellen zu steigern und dadurch mit oxidativem Stress assoziierten Erkrankungen (z. B. Herz-Kreislauf-Erkrankungen, Neurodegeneration, Atherosklerose) vorzubeugen. Ausgehend davon wurde in der vorliegenden Arbeit der Dual-Luciferase-Reportergen-(DLR)-Assay zum Nachweis der Induktion der antioxidativen Enzyme Katalase (CAT), zytosolische Glutathion-Peroxidase (GPX1) und Kupfer-Zink-Superoxid-Dismutase (SOD1) entwickelt. Im Zuge dessen wurden drei Säugetierzelllinien (CaCo2, IEC-18, V79) auf ihre Eignung zur Modellzelllinie untersucht. Aufgrund der Transfektionseffizienz wurde die Fibroblastenzelllinie V79 ausgewählt. Zur Gewährleistung eines hohen Substanzdurchsatzes des DLR-Assays wurden bei der Etablierung Parameter wie Kulturplattenformat, DNA-Menge, Luciferasen-Kinetik berücksichtigt. Nach erfolgreicher Etablierung des Versuchs im 96-Well-Format wurden L-Carnitin, Catechin, Epigallocatechingallat, Genistein, Wasserstoffperoxid (H2O2), Natrium-Ascorbat, Paraquat, Quercetin, 12-O-Tetradecanoylphorbol-13-Acetat (TPA) und Trolox in nicht-zytotoxischen Konzentrationen hinsichtlich der Aktivierung des Ratten-CAT-, des humanen GPX1- und des humanen SOD1-Promotors untersucht. Die Bestimmung der maximal tolerierbaren Behandlungskonzentration erfolgte im Vorfeld mittels Resazurintest. Von den zehn Verbindungen zeichneten sich drei Substanzen als potente Induktoren für die SOD1 und die GPX1 aus. Die 24-stündige Behandlung von mit Reportergenkonstrukten transient transfizierten V79-Zellen mit 100 µM Paraquat resultierte in einer Verdopplung der relativen SOD1-Promotor-Aktivität und einer Erhöhung der relativen GPX1-Promotor-Aktivität auf 1,6 bzw. 1,7. Die Stimulation mit 20 µM Genistein oder 10 µM Quercetin führte wiederum zu einer Verdopplung bis Verdreifachung der relativen SOD1- und GPX1-Promotor-Aktivität. Der Promotor der Rattenkatalase konnte demgegenüber nur durch 50 µM H2O2 aktiviert werden (1,5fach). Für diesen DLR-Assays bieten sich folglich Genistein, Quercetin wie auch H2O2 als Referenzsubstanzen an. Um aber eine qualitative Charakterisierung der einzelnen Verbindungen hinsichtlich ihres Induktionspotentials zu gewährleisten, sollten von allen getesteten Substanzen Dosis-Wirkungskurven aufgenommen werden. Zudem wird für den routinemäßigen Einsatz die Verwendung stabil transfizierter Zellen zur Vermeidung von mit der Transfektion verbundenen experimentellen Schwankungen empfohlen.
Der islamistische Dschihad in Pakistan : geopolitische Aspekte eines multikausalen Konfliktes
(2009)
Das Papier fragt nach den (geopolitischen) Interessen der verschiedenen Akteure, um die bisherige Politik realpolitisch auszuleuchten, die Krisenherde in Pakistan darzustellen und zukünftige (Lösungs-)Szenarien zu entwickeln. Im Zentrum steht die Fragestellung, warum das afghanisch-pakistanische Grenzgebiet als Wurzel des islamistischen Terrors gilt. Mit Hilfe einer geostrategischen Analyse der Landesstruktur erfolgt die Vorstellung der verschiedenen Akteursnetzwerke, die in Pakistan ursächlich für die Etablierung des islamistischen Terrors sind. In einem für die pakistanische Zukunft skeptischen Fazit werden Lösungsansätze für die Hauptkonfliktlinien vorgeschlagen, um die geostrategische Mittellage Pakistans zu stabilisieren.
Die Zielsetzung der vorliegenden Arbeit ist die Beschreibung hydrophober Bodeneigenschaften und deren Auswirkungen auf Oberflächenabfluss und Erosion auf verschiedenen Skalen. Die dazu durchgeführten Untersuchungen fanden auf einer Rekultivierungsfläche im Braunkohlegebiet Welzow Süd (Südostdeutschland) statt. Die Prozesse wurden auf drei Skalen untersucht, die von der Plotskala (1m²) über die Hangskala (300m²) bis zur Betrachtung eines kleinen Einzugsgebietes (4ha) reichen. Der Grad der hydrophoben Bodeneigenschaften wurde sowohl direkt, über die Bestimmung des Kontaktwinkel, als auch indirekt, über die Bestimmung der Persistenz, ermittelt. Dabei zeigte sich, dass der Boden im Winterhalbjahr hydrophil reagierte, während er im Sommerhalbjahr hydrophobe Bodeneigenschaften aufwies. Die Ergebnisse deuten darauf hin, dass ansteigende Bodenwassergehalte, die in der Literatur häufig als Ursache für einen Wechsel der Bodeneigenschaften angegeben werden, auf dieser Fläche nicht zu einem Umbruch der Bodenbedingungen führen. Stattdessen kam es als Folge des Auftauens von gefrorenem Boden zu hydrophilen Bodeneigenschaften, die zu einem Anstieg des Bodenwassergehalts führten. Räumliche Unterschiede zeigten sich in den geomorphologischen Einheiten. Rinnen und Rillen wiesen seltener hydrophobe Eigenschaften als die Zwischenrillenbereiche und Kuppen auf. Diese räumlichen und zeitlichen Variabilitäten wirkten sich auch auf den Oberflächenabfluss aus, der als Abflussbeiwert (ABW: Quotient aus Abfluss und Niederschlag) untersucht wurde. Der ABW liegt auf Böden mit hydrophoben Bodeneigenschaften (ABW=0,8) deutlich höher als bei jenen mit hydrophilen Eigenschaften(ABW=0,2), wie sie im Winter oder auf anderem Substrat vorzufinden sind (diese Werte beziehen sich auf die Plotskala). Betrachtet man die Auswirkungen auf unterschiedlichen Skalen, nimmt der Abflussbeiwert mit zunehmender Flächengröße ab (ABW = 0,8 auf der Plotskala, ABW = 0,5 auf der Hangskala und ABW = 0,2 im gesamten Gebiet), was in den hydrophil reagierenden Rillen und Rinnen auf der Hangskala und dem hydrophilen Substrat im Einzugsgebiet begründet ist. Zur Messung der Erosion wurden verschiedene, zum Teil neu entwickelte Methoden eingesetzt, um eine hohe zeitliche und räumliche Auflösung zu erreichen. Bei einer neu entwickelten Methode wird der Sedimentaustrag ereignisbezogen über eine Waage bestimmt. In Kombination mit einer Kippwaage ermöglicht sie die gleichzeitige Messung des Oberflächenabflusses. Die Messapparatur wurde für Gebiete entwickelt, die eine überwiegend grobsandige Textur aufweisen und nur geringe Mengen Ton und Schluff enthalten. Zusätzlich wurden zwei Lasersysteme zur Messung der räumlichen Verteilung der Erosion eingesetzt. Für die erste Methode wurde ein punktuell messender Laser in einer fest installierten Apparatur über die Fläche bewegt und punktuell Höhenunterschiede in einem festen Raster bestimmt. Durch Interpolation konnten Bereiche mit Sedimentabtrag von Akkumulationsbereiche unterschieden werden. Mit dieser Methode können auch größere Flächen vermessen werden (hier 16 m²), allerdings weisen die Messungen in den Übergangsbereichen von Rinne zu Zwischenrille große Fehler auf. Bei der zweiten Methode wird mit einer Messung ein Quadratmeter mit einer hohen räumlichen Auflösung komplett erfasst. Um ein dreidimensionales Bild zu erstellen, müssen insgesamt vier Aufnahmen von jeweils unterschiedlichen Seiten aufgenommen werden. So lassen sich Abtrag und Akkumulation sehr genau bestimmen, allerdings ist die Messung relativ aufwendig und erfasst nur eine kleine Fläche. Zusätzlich wurde der Sedimentaustrag noch auf der Plotskala erfasst. Die Messungen zeigen, korrespondierend zu den Bodeneigenschaften, große Sedimentausträge während des Sommerhalbjahrs und kaum Austräge im Winter. Weiterhin belegen die Ergebnisse eine größere Bedeutung der Rillenerosion gegenüber der Zwischenrillenerosion für Niederschlagsereignisse hoher Intensität (>25 mm/h in einem zehnminütigem Intervall). Im Gegensatz dazu dominierte die Zwischenrillenerosion bei Ereignissen geringerer Intensität (<20 mm/h in einem zehnminütigem Intervall), wobei mindestens 9 mm Niederschlag in einer Intensität von mindesten 3,6 mm/h nötig sind, damit es zur Erosion kommt. Basierend auf den gemessenen Abflüssen und Sedimentausträgen wurden Regressiongleichungen abgeleitet, die eine Berechnung dieser beiden Prozesse für die untersuchte Fläche ermöglichen. Während die Menge an Oberflächenabfluss einen starken Zusammenhang zu der Menge an gefallenem Niederschlag zeigt (r² = 0,9), ist die Berechnung des ausgetragenen Sedimentes eher ungenau (r² = 0,7). Zusammenfassend beschreibt die Arbeit Einflüsse hydrophober Bodeneigenschaften auf verschiedenen Skalen und arbeitet die Auswirkungen, die vor allem auf der kleinen Skala von großer Bedeutung sind, heraus.
Antiker Orient
(1996)
Im Januar 1995 fand in Potsdam - Hermannswerder eine Studentenkonferenz statt, auf der Studenten unterschiedlicher Fakultäten der Potsdamer Universität eine im Herbst 1994 durchgeführte interdisziplinäre Exkursion auf den Sinai in Diskussionbeiträgen und Vorträgen auswerteten. Die Beiträge erschienen in ARCUS 2. Daneben wurden von Fachwissenschaftlern einführende Vorträge zu den Themen Archäologie und Epigraphik im Orient gehalten, die im vorliegenden Heft veröffentlicht werden sollen. Sie reichen von Grabungsberichten, allgemeinen Problemen der Archäologie und Landeskunde bis zu modernen Methoden epigraphischer Arbeit. Mit diesen Beiträgen wurde den Teilnehmern der Tagung ein Einblick in die Breite der Orient-Forschung gegeben. Die Tagung wurde durch das Ministerium für Wissenschaft, Forschung und Kultur des Landes Brandenburg unterstützt.
Sinai
(1995)
Vorwort: In der Zeit vom 3o. September 1994 bis zum 2 1 . Oktober 1994 fand eine Exkursion auf den Sinai statt, die Studenten aus den Bereichen Geschichte, Geographie und Sozialwissenschaften vereinte. Ziel der Unternehmung war es, die Studenten mit der Geographie des Sinai vertraut zu machen, sie in die historischen Gegebenheiten der Landschaft und in archäologische Forschungen einzuführen und den sich abzeichnenden Wandel dieser Region zu beobachten. In Kairo wurde den Studenten eine Einführung in die Probleme des Landes gegeben: Dr. Nastansky, der Leiter des DAAD Kairo, sprach über das Bildungswesen in Ägypten, Dr. Claus von der Gesellschaft für Technische Zusammenarbeit äußerte sich zu Fragen der Entwicklungshilfe, Dr. Pflugrad - Abdel Aziz über deutsche Architekten in Ägypten und Volkmar Wenzel von der deutschen Botschaft zu Fragen der Innen- und Außenpolitik Ägyptens. Auch nach der Exkursion konnten die gewonnenen Erkenntnisse und Erfahrungen durch Vorträge und Diskussionen vertieft werden. Dr. Großmann vom Deutschen Archäologischen Institut sprach zur Architektur auf dem Sinai, Sherif Algohary von der Ägyptischen Atomenergiebehörde zu alternativen Wohn- und Lebensformen in Ägypten und Prof. Kilany, der Vizepräsident der Grünen Partei Ägyptens, zur Umweltsituation des Landes. Zwischen diesen Veranstaltungen gab es Zeit, sich mit den Problemen der 17 Millionenstadt vertraut zu machen, Denkmäler und Museen kennenzulernen und erste Kontakte zu knüpfen. Die Exkursion in Richtung Osten begann mit der Besichtigung einer mittelgroßen Stadt nordöstlich von Kairo, die - in der Wüste neugebaut - aber nicht bezogen war. Das war Anlaß, über Infrastruktur, Planungsansätze und Zielvorstellungen zu diskutieren. Auch die bei der Stadt Bilbeis gelegene unbrauchbar gewordene Schleusenanlage forderte das Nachdenken über den Umgang mit Bauten der Infrastruktur heraus. Der Aufenthalt in Zagazig - einer im Ostdelta gelegenen Großstadt - wurde zu einer Begegnung mit der fünftausendjährigen Geschichte Ägyptens. Der Besuch bei Handwerkern, die wie vor Tausenden von Jahren ihre Krüge herstellen und ihre Ziegel streichen und die Tempelanlage von Teil Basta einerseits, eine moderne Ziegelei und die Einladung der Landwirtschaftlichen Fakultät der Universität andererseits, machen das Spannungsfeld deutlich, in dem Ägypten und Ägypter heute leben. Diese Eindrücke wurden durch den Besuch der riesigen Tempelanlage von Tanis und das in der zweiten Hälfte des 19. Jahrhundert entstände Ismailiya verstärkt. Die eigentliche Sinai-Exkursion erfolgte mit der Aufteilung in Gruppen. Ein Teil befaßte sich, von Kantara ausgehend, mit der speziellen Problematik des Nordsinai, mit dem Suez-Kanal, mit dem Bau des zur Bewässerung dienenden Friedenskanals und dem sozialen Wandel in dieser Region. Eine zweite Gruppe widmete sich der Lebensweise der Beduinen, der Veränderung ihrer Lebenslage und stellte sich kritisch den Problemen des anwachsenden Tourismus. Andere verfolgten Fragen der politischen Entwicklung auf dem Sinai, insbesondere in dem Spannungsfeld zwischen dem arabisch-nationalbewußten Ägypten und dem nicht weniger selbstbewußten Israel. Daß es sich dabei nicht um einen abgeschlossenen Prozeß handelt, macht nicht nur die jüngste Geschichte deutlich, sondern wurde auch jedem Teilnehmer klar, der z.T. im Schutz der Polizei das Land bereiste. Die Exkursion wurde aus Mitteln des Deutschen Akademischen Austauschdienstes und der Universität Potsdam finanziert. Mit ihr sollte das Ziel erreicht werden, die Grundlage für weitere wissenschaftliche Arbeiten zu legen. Der wesentliche Gewinn für jeden lag darin, daß ein unmittelbarer Kontakt zu den Bewohnern des Landes möglich war, der durch eine zuvor erarbeitete Aufgabenstellung zu einer konkreten Erfahrung wurde.
Inhalt: 1. CHARAKTER DER ANLAGE 2. AUFGABENSTELLUNG 3. ZIEL DER ARBEIT 4. ANTIKE QUELLEN 5. FORSCHUNGSGESCHICHTE 6. VERMESSUNG DER ANLAGE (Blatt 1) 7. BESTANDSAUFNAHME (Blatt 2) 8. GRABUNGSARBEITEN 8.1 Die Plana - schichtenweises Abtragen (Blätter 2, 3, 4) 8.2 Anlegen von Schnitten (Blätter 5, 6, 7) 8.3 Zeichnen der Profile (Blätter 8, 9, 10) 8.4 Beschreibung 9. ARCHITEKTURELEMENTE 9.1. Architrave (Blatt 11) 9.2. Säulenfragmente (Blatt 12) 9.3. Hohlkehlen, Steine mit dem Uräusschlangenmotiv und andere Architekturelemente (Blätter 11, 13, 14, 15) 9.4. Fundamentsteine ( Blatt 16) 10. SKULPTUREN (Blätter 17, 18, 19) 11. KLEINFUNDE (Blatt 20) 12. SONSTIGE FUNDE (Blätter 21, 22, 23) 13. KERAMIK 13.1. Vereinfachte Keramikbearbeitung (Blätter 24, 25) 13.2. Verfeinerte Methode der Keramikbearbeitung (Blatt 26) 13.3. Vollständige Keramikgefäße 14. FOTOARBEITEN 15. REKONSTRUKTION
Erster Deutscher IPv6 Gipfel
(2008)
Inhalt: KOMMUNIQUÉ GRUßWORT PROGRAMM HINTERGRÜNDE UND FAKTEN REFERENTEN: BIOGRAFIE & VOTRAGSZUSAMMENFASSUNG 1.) DER ERSTE DEUTSCHE IPV6 GIPFEL AM HASSO PLATTNER INSTITUT IN POTSDAM - PROF. DR. CHRISTOPH MEINEL - VIVIANE REDING 2.) IPV6, ITS TIME HAS COME - VINTON CERF 3.) DIE BEDEUTUNG VON IPV6 FÜR DIE ÖFFENTLICHE VERWALTUNG IN DEUTSCHLAND - MARTIN SCHALLBRUCH 4.) TOWARDS THE FUTURE OF THE INTERNET - PROF. DR. LUTZ HEUSER 5.) IPV6 STRATEGY & DEPLOYMENT STATUS IN JAPAN - HIROSHI MIYATA 6.) IPV6 STRATEGY & DEPLOYMENT STATUS IN CHINA - PROF. WU HEQUAN 7.) IPV6 STRATEGY AND DEPLOYMENT STATUS IN KOREA - DR. EUNSOOK KIM 8.) IPV6 DEPLOYMENT EXPERIENCES IN GREEK SCHOOL NETWORK - ATHANASSIOS LIAKOPOULOS 9.) IPV6 NETWORK MOBILITY AND IST USAGE - JEAN-MARIE BONNIN 10.) IPV6 - RÜSTZEUG FÜR OPERATOR & ISP IPV6 DEPLOYMENT UND STRATEGIEN DER DEUTSCHEN TELEKOM - HENNING GROTE 11.) VIEW FROM THE IPV6 DEPLOYMENT FRONTLINE - YVES POPPE 12.) DEPLOYING IPV6 IN MOBILE ENVIRONMENTS - WOLFGANG FRITSCHE 13.) PRODUCTION READY IPV6 FROM CUSTOMER LAN TO THE INTERNET - LUTZ DONNERHACKE 14.) IPV6 - DIE BASIS FÜR NETZWERKZENTRIERTE OPERATIONSFÜHRUNG (NETOPFÜ) IN DER BUNDESWEHR HERAUSFORDERUNGEN - ANWENDUNGSFALLBETRACHTUNGEN - AKTIVITÄTEN - CARSTEN HATZIG 15.) WINDOWS VISTA & IPV6 - BERND OURGHANLIAN 16.) IPV6 & HOME NETWORKING TECHINCAL AND BUSINESS CHALLENGES - DR. TAYEB BEN MERIEM 17.) DNS AND DHCP FOR DUAL STACK NETWORKS - LAWRENCE HUGHES 18.) CAR INDUSTRY: GERMAN EXPERIENCE WITH IPV6 - AMARDEO SARMA 19.) IPV6 & AUTONOMIC NETWORKING - RANGANAI CHAPARADZA 20.) P2P & GRID USING IPV6 AND MOBILE IPV6 - DR. LATIF LADID
Contents 1. Styling for Service-Based 3D Geovisualization Benjamin Hagedorn 2. The Windows Monitoring Kernel Michael Schöbel 3. A Resource-Oriented Information Network Platform for Global Design Processes Matthias Uflacker 4. Federation in SOA – Secure Service Invocation across Trust Domains Michael Menzel 5. KStruct: A Language for Kernel Runtime Inspection Alexander Schmidt 6. Deconstructing Resources Hagen Overdick 7. FMC-QE – Case Studies Stephan Kluth 8. A Matter of Trust Rehab Al-Nemr 9. From Semi-automated Service Composition to Semantic Conformance Harald Meyer
Motivations and research objectives: During the passage of rain water through a forest canopy two main processes take place. First, water is redistributed; and second, its chemical properties change substantially. The rain water redistribution and the brief contact with plant surfaces results in a large variability of both throughfall and its chemical composition. Since throughfall and its chemistry influence a range of physical, chemical and biological processes at or below the forest floor the understanding of throughfall variability and the prediction of throughfall patterns potentially improves the understanding of near-surface processes in forest ecosystems. This thesis comprises three main research objectives. The first objective is to determine the variability of throughfall and its chemistry, and to investigate some of the controlling factors. Second, I explored throughfall spatial patterns. Finally, I attempted to assess the temporal persistence of throughfall and its chemical composition. Research sites and methods: The thesis is based on investigations in a tropical montane rain forest in Ecuador, and lowland rain forest ecosystems in Brazil and Panama. The first two studies investigate both throughfall and throughfall chemistry following a deterministic approach. The third study investigates throughfall patterns with geostatistical methods, and hence, relies on a stochastic approach. Results and Conclusions: Throughfall is highly variable. The variability of throughfall in tropical forests seems to exceed that of many temperate forests. These differences, however, do not solely reflect ecosystem-inherent characteristics, more likely they also mirror management practices. Apart from biotic factors that influence throughfall variability, rainfall magnitude is an important control. Throughfall solute concentrations and solute deposition are even more variable than throughfall. In contrast to throughfall volumes, the variability of solute deposition shows no clear differences between tropical and temperate forests, hence, biodiversity is not a strong predictor of solute deposition heterogeneity. Many other factors control solute deposition patterns, for instance, solute concentration in rainfall and antecedent dry period. The temporal variability of the latter factors partly accounts for the low temporal persistence of solute deposition. In contrast, measurements of throughfall volume are quite stable over time. Results from the Panamanian research site indicate that wet and dry areas outlast consecutive wet seasons. At this research site, throughfall exhibited only weak or pure nugget autocorrelation structures over the studies lag distances. A close look at the geostatistical tools at hand provided evidence that throughfall datasets, in particular those of large events, require robust variogram estimation if one wants to avoid outlier removal. This finding is important because all geostatistical throughfall studies that have been published so far analyzed their data using the classical, non-robust variogram estimator.
Duplicate detection consists in determining different representations of real-world objects in a database. Recent research has considered the use of relationships among object representations to improve duplicate detection. In the general case where relationships form a graph, research has mainly focused on duplicate detection quality/effectiveness. Scalability has been neglected so far, even though it is crucial for large real-world duplicate detection tasks. In this paper we scale up duplicate detection in graph data (DDG) to large amounts of data and pairwise comparisons, using the support of a relational database system. To this end, we first generalize the process of DDG. We then present how to scale algorithms for DDG in space (amount of data processed with limited main memory) and in time. Finally, we explore how complex similarity computation can be performed efficiently. Experiments on data an order of magnitude larger than data considered so far in DDG clearly show that our methods scale to large amounts of data not residing in main memory.
"Der 8. Mai hat es in sich. Es ist aber nicht nur die Geschichte. Die Woche vom 8. Mai war in diesem Jahr die 'Woche der Wahrheit' im Bundestag, eine Kristallkugel, die einen düsteren Blick in die Zukunft erlaubt. Das wurde durch zwei Ereignisse klar, die etwas verband, ohne dass sie zusammen geplant waren. [...]"
"Nach der Gründung der DDR war es eine Gruppe deutscher Antifaschisten, die an der Spitze der diplomatischen Missionen des neuen Staates auch einen neuen Typ deutscher Repräsentanten verkörperten. Fortan waren es nicht nur ehemalige Mitarbeiter des nationalsozialistischen AA, die nun für Bonn auf internationalem Parkett agierten, sondern angesehene Antifaschisten [...]"
US-Präsident Barack Obama hat die ersten hundert Tage seiner Administration hinter sich. Wie Alexander Höse zeigt, waren diese von einigen Höhen und Tiefen gekennzeichnet; allein die globale Finanzkrise hat ihren Beitrag dazu geleistet. Der Autor gibt einen Überblick über Obamas vermeintlich neue Politik und zeigt, dass sich so viel doch nicht geändert hat.
Zeichnet sich die Außenpolitik der Großen Koalition durch „mangelndes Profil“ aus? Marieluise Beck belegt dies durch die deutsche Reaktion auf die Initiative für eine atomwaffenfreie Welt des US-Präsidenten. Auch bei den Debatten um Menschenrechte, den außenpolitischen Umgang mit China und Russland sowie die Verwendung von selektiven Sanktionen ist die Große Koalition den Anforderungen nicht gewachsen.
Kooperative Beziehungen zu Russland sind angesichts der politisch-wirtschaftlichen Interessenlage, der geopolitischen Realitäten im Osten Europas und des geschichtlichen Hintergrundes in der deutschen politischen Klasse Konsens. Mit dem Begriff der strategischen Partnerschaft werden die deutsch-russischen Beziehungen immer wieder charakterisiert, d. h. diese Kooperation soll weit über die normalen Interessen Deutschlands hinausgehen und eine globalpolitische Dimension erreichen.
Die deutsche Außenpolitik hat seit dem 19. Jahrhundert bis zur Gegenwart viele Veränderungen erlebt. Lange stand Deutschland in einem angespannten Verhältnis zu den europäischen Ordnungen, doch nun ist es ein wichtiger Akteur der internationalen Gemeinschaft. Manfred Görtemaker, Professor für Neuere Geschichte aus Potsdam, zeichnet die wichtigsten Stationen dieser Entwicklung in seinem Beitrag nach.
Deutschland ist wegen seiner verlässlichen Außenpolitik ein weltweit angesehener Partner. Jedoch gelingt es der deutschen Außenpolitik momentan nicht, mit den Entwicklungen der globalisierten Welt Schritt zu halten. Bei wichtigen Themen hat die deutsche Regierung zu selten versucht, Stellung zu beziehen. Die Fähigkeit zur friedlichen Konfliktlösung muss Hauptanliegen unserer Außenpolitik sein. Als Grundlage dafür muss ein ständiger Dialog auch mit den Ländern, die unsere Werte nicht teilen, vorangetrieben werden.
Der Koordinator für deutsch-amerikanische Zusammenarbeit im Auswärtigen Amt, Karsten Voigt, attestiert der Außenpolitik der Großen Koalition eine erfolgreiche, solide Arbeit. Diese setzt die international geschätzte deutsche Kontinuität und Verlässlichkeit fort; auch in den zuletzt als schwierig empfundenen Beziehungen zu Russland und den USA.
Europäische Union als globale Macht : Plädoyer für eine wertbestimmte interregionale Ordnungsmacht
(2009)
Viele betrachten die EU als einen behäbigen Koloss, den widerstreitende Interessen lähmen. Der Autor weist die Kritiker jedoch in ihre Schranken. In seinem flammenden Plädoyer für die EU veranschaulicht er ihre positive Wirkung nach außen. Dabei kommt er zu dem Schluss, dass die Aufgaben Europas als universale Wertegemeinschaft im Bereich des Krisenmanagements und der Friedensstiftung liegen.
Dass die Große Koalition die Kontinuität deutscher Außenpolitik fortsetzt, ist für den Autor, verteidigunspolitischer Sprecher von DIE LINKE, ein Zeichen der Stagnation, sogar des Versagens. Er wirft der Bundesregierung Einfallslosigkeit, mangelndes Engagement und kalte Interessenpolitik vor. Doch neben der umfassenden Kritik werden auch neue Lösungsansätze vorgestellt, die sich auf Erwartungen an die neue US-Administration stützen.
Wie stabil ist die Außenpolitik der Großen Koalition? Aufgrund ihrer Position als stellvertretende außenpolitische Sprecherin der SPD ist es der Autorin möglich, neben den Gemeinsamkeiten auch die entscheidenden Unterschiede zu beleuchten. Vor dem Hintergrund mehrerer Beispiele, wie dem EU-Beitritt der Türkei, stellt sie den Konsens zwischen CDU/ CSU und SPD als fragil heraus.
"Deutschland ist schwer vermittelbar. Deutsche Kulturaußenpolitik tut, was sie kann. Das Goethe-Institut kämpft so für die globale Friedensmacht Deutschland in aller Herren Länder. Beim satzungsgemäß gestellten Ziel der 'Vermittlung eines umfassenden Deutschlandbildes' fällt ihm in seinem Internet-Glossar zu Deutschland dann aber für den Buchstaben C nur 'Cluster' ein. Vielleicht, weil es den Deutschen an 'Charisma' fehlt? [...]"
Thailand in der Dauerkrise
(2009)
Mit dem erzwungenen Abbruch des ASEAN-Gipfels im April 2009 erreichte der politische Machtkampf in Thailand einen neuen Höhepunkt. Trotz des Rückzuges der Aufständischen ist kein Ende des Konflikts abzusehen. Die erhoffte politische Ruhe mit der Wahl Abhisit Vejjajivas zum neuen thailändischen Regierungschef hat sich in dem tief gespaltenen Land nicht eingestellt.
Schwarz-Rot vertritt wie keine andere deutsche Regierung vor ihr selbstbewusst deutsche und europäische Interessen, ohne dieses Selbstbewusstsein bemüht zur Schau zu stellen. Deutschland hat in den vergangenen Jahren ganz selbstverständlich die Rolle des Antreibers europäischer Politik für sich reklamiert. Jedoch erwiesen sich Merkel und Steinmeier dabei mehr als realistische Pragmatiker denn als Visionäre.
Contents: Artem Polyvanny, Sergey Smirnow, and Mathias Weske The Triconnected Abstraction of Process Models 1 Introduction 2 Business Process Model Abstraction 3 Preliminaries 4 Triconnected Decomposition 4.1 Basic Approach for Process Component Discovery 4.2 SPQR-Tree Decomposition 4.3 SPQR-Tree Fragments in the Context of Process Models 5 Triconnected Abstraction 5.1 Abstraction Rules 5.2 Abstraction Algorithm 6 Related Work and Conclusions
The complex system of strike-slip and thrust faults in the Alborz Mountains, Northern Iran, are not well understood yet. Mainly structural and geomorphic data are available so far. As a more extensive base for seismotectonic studies and seismic hazard analysis we plan to do a comprehensive seismic moment tensor study also from smaller magnitudes (M < 4.5) by developing a new algorithm. Here, we present first preliminary results.
It has always been enigmatic which processes control the accretion of the North American terranes towards the Pacific plate and the landward migration of the San Andreas plate boundary. One of the theories suggests that the Pacific plate first cools and captures the uprising mantle in the slab window, and then it causes the accretion of the continental crustal blocks. The alternative theory attributes the accretion to the capture of Farallon plate fragments (microplates) stalled in the ceased Farallon-North America subduction zone. Quantitative judgement between these two end-member concepts requires a 3D thermomechanical numerical modeling. However, the software tool required for such modeling is not available at present in the geodynamic modeling community. The major aim of the presented work is comprised basically of two interconnected tasks. The first task is the development and testing of the research Finite Element code with sufficiently advanced facilities to perform the three-dimensional geological time scale simulations of lithospheric deformation. The second task consists in the application of the developed tool to the Neogene deformations of the crust and the mantle along the San Andreas Fault System in Central and northern California. The geological time scale modeling of lithospheric deformation poses numerous conceptual and implementation challenges for the software tools. Among them is the necessity to handle the brittle-ductile transition within the single computational domain, adequately represent the rock rheology in a broad range of temperatures and stresses, and resolve the extreme deformations of the free surface and internal boundaries. In the framework of this thesis the new Finite Element code (SLIM3D) has been successfully developed and tested. This code includes a coupled thermo-mechanical treatment of deformation processes and allows for an elasto-visco-plastic rheology with diffusion, dislocation and Peierls creep mechanisms and Mohr-Coulomb plasticity. The code incorporates an Arbitrary Lagrangian Eulerian formulation with free surface and Winkler boundary conditions. The modeling technique developed is used to study the aspects influencing the Neogene lithospheric deformation in central and northern California. The model setup is focused on the interaction between three major tectonic elements in the region: the North America plate, the Pacific plate and the Gorda plate, which join together near the Mendocino Triple Junction. Among the modeled effects is the influence of asthenosphere upwelling in the opening slab window on the overlying North American plate. The models also incorporate the captured microplate remnants in the fossil Farallon subduction zone, simplified subducting Gorda slab, and prominent crustal heterogeneity such as the Salinian block. The results show that heating of the mantle roots beneath the older fault zones and the transpression related to fault stepping, altogether, render cooling in the slab window alone incapable to explain eastward migration of the plate boundary. From the viewpoint of the thermomechanical modeling, the results confirm the geological concept, which assumes that a series of microplate capture events has been the primary reason of the inland migration of the San Andreas plate boundary over the recent 20 Ma. The remnants of the Farallon slab, stalled in the fossil subduction zone, create much stronger heterogeneity in the mantle than the cooling of the uprising asthenosphere, providing the more efficient and direct way for transferring the North American terranes to Pacific plate. The models demonstrate that a high effective friction coefficient on major faults fails to predict the distinct zones of strain localization in the brittle crust. The magnitude of friction coefficient inferred from the modeling is about 0.075, which is far less than typical values 0.6 – 0.8 obtained by variety of borehole stress measurements and laboratory data. Therefore, the model results presented in this thesis provide additional independent constrain which supports the “weak-fault” hypothesis in the long-term ongoing debate over the strength of major faults in the SAFS.
Inhalt: 1. Einleitung 2. Fragestellungen 3. Methoden 3.1 Methodisches Vorgehen: Interdisziplinäre Trachealkanülenentwöhnung und Dekanülierungsentscheidung im Basler Ansatz 3.2 Methodisches Vorgehen: Probanden und Messverfahren 4. Ergebnisse 4.1 Effektivität und Effizienz des multidisziplinären Ansatzes: Dekanülierungs- und Komplikationsraten und Therapiedauer bis zur Dekanülierung 4.2 Einfluss der Dekanülierung auf den Rehabilitationsverlauf funktioneller Fähigkeiten: Vergleich der funktionellen Selbständigkeit vor vs. nach der Dekanülierung 4.3 Entwicklung der Schluckfunktion und oralen Nahrungsaufnahme nach der Dekanülierung 5. Diskussion 6. Fazit 7. Literatur 8. Danksagung
Inhalt: 1. Einleitung 1.1 Blickbewegungen beim Lesen 1.2 Kognitive Kontrolle und verteilte Verarbeitung 2. Fragestellungen und Hypothesen 3. Methoden 3.1 Probanden 3.2 Material 3.3 Durchführung und Auswertung 4. Ergebnisse 4.1 Unterschiede in Effekten der Wortvorhersagbarkeit 4.2 Unterschiede in Effekten der Wortfrequenz 5. Diskussion 6. Literatur
Inhalt: 1. Einleitung 2. Hintergrund 2.1 Die prosodische Organisation des Deutschen 2.2 Implikationen für den Erwerb der Wortprosodie im Deutschen 3. Methode 3.1 Datenerhebung 3.2 Empirische Analyse 4. Ergebnisse: Die Entwicklung des Prosodischen Wortes im Deutschen 5. Analyse der empirischen Daten 5.1 Grundannahmen 5.2 Analyse der Entwicklungsstufen 6. Zusammenfassung und Diskussion 7. Literatur
Inhalt: 1. Einführung 1.1 Methoden zur Untersuchung sprachlicher Fähigkeiten 1.2 Die Anfänge der Erforschung von Mehrsprachigkeit 2. Funktionelle Bildgebung 2.1 Einfluss des Erwerbsalters 2.2 Einfluss der Sprachkompetenz 3. Elektrophysiologische Daten 3.1 Einfluss des Erwerbsalters 3.2 Einfluss der Sprachkompetenz 4. Neurokognitive Modelle 4.1 Lexikalisch-semantische Modelle 4.2 Lexikalisch-Grammatikalisches Modell 4.3 Implizit-Explizites Modell 5. Schlussfolgerung 6. Literatur
"Spektrum Patholinguistik" (Band 2) ist der Tagungsband zum 2. Herbsttreffen Patholinguistik, das der Verband für Patholinguistik (vpl) e.V. am 22.11.2008 an der Universität Potsdam veranstaltet hat. Zum Schwerpunktthema "Ein Kopf - Zwei Sprachen: Mehrsprachigkeit in Forschung und Therapie" sind die drei Hauptvorträge und vier Abstracts von Posterpräsentationen veröffentlicht. Desweiteren enthält der Tagungsband freie Beiträge, u.a. zu Satzverarbeitung und Agrammatismus, Lesestrategien und LRS, Prosodie-Entwicklung, kindlichen Aphasien, Dysphagie-Therapie sowie zu kognitiven Defiziten bei älteren Menschen.
Übergewicht und Adipositas führen zu Insulinresistenz und erhöhen deutlich das Risiko für die Entwicklung von Typ-2-Diabetes und kardiovaskulären Erkrankungen. Sowohl Adipositas als auch die Suszeptibilität gegenüber Diabetes sind zu einem erheblichen Teil genetisch determiniert. Die relevanten Risikogene, deren Interaktion mit der Umwelt, insbesondere mit Bestandteilen der Nahrung, und die Pathomechanismen, die zur Insulinresistenz und Diabetes führen, sind nicht vollständig aufgeklärt. In der vorliegenden Arbeit sollte durch Genexpressionsanalysen des weißen Fettgewebes (WAT) und der Langerhansschen Inseln die Entstehung und Progression von Adipositas und Typ-2-Diabetes untersucht werden, um relevante Pathomechanismen und neue Kandidatengene zu identifizieren. Zu diesem Zweck wurden Diät-Interventionsstudien mit NZO- und verwandten NZL-Mäusen, zwei polygenen Mausmodellen für das humane metabolische Syndrom, durchgeführt. Eine kohlenhydrathaltige Hochfett-Diät (HF: 14,6 % Fettanteil) führte in beiden Mausmodellen zu früher Adipositas, Insulinresistenz und Typ 2 Diabetes. Eine fettreduzierte Standarddiät (SD: 3,3 % Fettanteil), welche die Entstehung von Adipositas und Diabetes stark verzögert, sowie eine diabetesprotektive kohlenhydratfreie Hochfett-Diät (CHF: 30,2 % Fettanteil) dienten als Kontrolldiäten. Mit Hilfe der Microarray-Technologie wurden genomweite Expressionsprofile des WAT erstellt. Pankreatische Inseln wurden durch laserbasierte Mikropräparation (Laser Capture Microdissection; LCM) isoliert und ebenfalls hinsichtlich ihres Expressionsprofils analysiert. Differenziell exprimierte Gene wurden durch Real-Time-PCR validiert. Im WAT der NZO-Maus bewirkte die HF-Diät eine reduzierte Expression nukleärer Gene der oxidativen Phosphorylierung und von lipogenen Enzymen. Dies deutet auf eine inadäquate Fettspeicherung und -verwertung in diesen Tieren hin. Die Reduktion in der Fettspeicherung und -oxidation ist spezifisch für das adipöse NZO-Modell und konnte bei der schlanken SJL Maus nicht beobachtet werden, was auf eine mögliche Beteiligung an der Entstehung der Insulinresistenz hinweist. Zusätzlich wurde bestätigt, dass die Expansion des Fettgewebes bei der adipösen NZO-Maus eine zeitlich verzögerte Infiltration von Makrophagen in das WAT und dort eine lokale Immunantwort auslöst. Darüber hinaus wurde die Methode der LCM etabliert und zur Gewinnung hochangereicherter RNA aus den Langerhansschen Inseln eingesetzt. In erstmalig durchgeführten genomweiten Expressionsanalysen wurde zu einem frühen Zeitpunkt in der Diabetesentwicklung der Einfluss einer diabetogenen HF-Diät und einer diabetesprotektiven CHF-Diät auf das Expressionsprofil von pankreatischen Inselzellen verglichen. Im Gegensatz zum WAT bewirkt die diabetogene HF-Diät in Inselzellen einerseits, eine erhöhte Expression von nukleären Genen für die oxidative Phosphorylierung und andererseits von Genen, die mit Zellproliferation assoziiert sind. Zudem wurden 37 bereits annotierte Gene identifiziert, deren differenzielle Expression mit der Diabetesentwicklung korreliert. Das Peptidhormon Cholecystokinin (Cck, 11,8-fach erhöht durch die HF) stellt eines der am stärksten herauf regulierten Gene dar. Die hohe Anreicherung der Cck-mRNA in Inselzellen deutet auf eine bisher unbekannte Funktion des Hormons in der Regulation der Inselzellproliferation hin. Der Transkriptionsfaktor Mlxipl (ChREBP; 3,8-fach erniedrigt durch die HF) stellt in Langerhansschen Inseln eines der am stärksten herunter regulierten Gene dar. Ferner wurde ChREBP, dessen Funktion als glucoseregulierter Transkriptionsfaktor für lipogene Enzyme bislang in der Leber, aber nicht in Inselzellen nachgewiesen werden konnte, erstmals immunhistochemisch in Inselzellen detektiert. Dies deutet auf eine neue, bisher unbekannte regulatorische Funktion von ChREBP im Glucosesensor-Mechanismus der Inselzellen hin. Eine durchgeführte Korrelation der mit der Diabetesentwicklung assoziierten, differenziell exprimierten Inselzellgene mit Genvarianten aus humanen genomweiten Assoziationsstudien für Typ-2-Diabetes (WTCCC, Broad-DGI-T2D-Studie) ermöglichte die Identifizierung von 24 neuartigen Diabetes-Kandidatengenen. Die Ergebnisse der erstmals am polygenen NZO-Mausmodell durchgeführten genomweiten Expressionsuntersuchungen bestätigen bisherige Befunde aus Mausmodellen für Adipositas und Diabetes (z.B. ob/ob- und db/db-Mäuse), zeigen in einigen Fällen aber auch Unterschiede auf. Insbesondere in der oxidativen Phosphorylierung könnten die Ergebnisse relevant sein für das Verständnis der Pathogenese des polygen-bedingten humanen metabolischen Syndroms.
This thesis presents investigations on sediments from two African lakes which have been recording changes in their surrounding environmental and climate conditions since more than 200,000 years. Focus of this work is the time of the last Glacial and the Holocene (the last ~100,000 years before present [in the following 100 kyr BP]). One important precondition for this kind of research is a good understanding of the present ecosystems in and around the lakes and of the sediment formation under modern climate conditions. Both studies therefore include investigations on the modern environment (including organisms, soils, rocks, lake water and sediments). A 90 m long sediment sequence was investigated from Lake Tswaing (north-eastern South Africa) using geochemical analyses. These investigations document alternating periods of high detrital input and low (especially autochthonous) organic matter content and periods of low detrital input, carbonatic or evaporitic sedimentation and high autochthonous organic matter content. These alternations are interpreted as changes between relatively humid and arid conditions, respectively. Before c. 75 kyr BP, they seem to follow changes in local insolation whereas afterwards they appear to be acyclic and are probably caused by changes in ocean circulation and/or in the mean position of the Inter-Tropical Convergence Zone (ITCZ). Today, these factors have main influence on precipitation in this area where rainfall occurs almost exclusively during austral summer. All modern organisms were analysed for their biomarker and bulk organic and compound-specific stable carbon isotope composition. The same investigations on sediments from the modern lake floor document the mixed input of the investigated individual organisms and reveal additional influences by methanotrophic bacteria. A comparison of modern sediment characteristics with those of sediments covering the time 14 to 2 kyr BP shows changes in the productivity of the lake and the surrounding vegetation which are best explained by changes in hydrology. More humid conditions are indicated for times older than 10 kyr BP and younger than 7.5 kyr BP, whereas arid conditions prevailed in between. These observations agree with the results from sediment composition and indications from other climate archives nearby. The second lake study deals with Lake Challa, a small, deep crater lake on the foot of Mount Kilimanjaro. In this lake form mm-scale laminated sediments which were analyses with micro-XRF scanning for changes in the element composition. By comparing these results with investigations on thin sections, results from ongoing sediment trap studies, meteorological data, and investigations on the surrounding rocks and soils, I develop a model for seasonal variability in the limnology and sedimentation of Lake Challa. The lake appears to be stratified during the warm rain seasons (October – December and March – May) during which detrital material is delivered to the lake and carbonates precipitate. On the lake floor forms a dark lamina with high contents of Fe and Ti and high Ca/Al and low Mn/Fe ratios. Diatoms bloom during the cool and windy season (June – September) when mixing down to c. 60 m depth provides easily bio-available nutrients. Contemporaneously, Fe and Mn-oxides are precipitating which cause high Mn/Fe ratios in the light diatom-rich laminae of the sediments. Trends in the Mn/Fe ratio of the sediments are interpreted to reflect changes in the intensity or duration of seasonal mixing in Lake Challa. This interpretation is supported by parallel changes in the organic matter and biogenic silica content observed in the 22 m long profile recovered from Lake Challa. This covers the time of the last 25 kyr BP. It documents a transition around 16 kyr BP from relatively well-mixed conditions with high detrital input during glacial times to stronger stratified conditions which are probably related to increasing lake levels in Challa and generally more humid conditions in East Africa. Intensified mixing is recorded for the time of the Younger Dryas and the period between 11.4 and 10.7 kyr BP. For these periods, reduced intensity of the SW monsoon and intensified NE monsoon are reported from archives of the Indian-Asian Monsoon region, arguing for the latter as a probable source for wind mixing in Lake Challa. This connection is probably also responsible for contemporaneous events in the Mn/Fe ratios of the Lake Challa sediments and in other records of northern hemisphere monsoon intensity during the Holocene and underlines the close interaction of global low latitude atmospheric circulation.
The bibliographic project 'Renaissance Linguistics Archive' (R.L.A.) aimed at establishing a comprehensive database of secondary sources covering the linguistics ideas developed by Renaissance scholars in Europe. The database project, founded in 1986 by Mirko Tavoni (Pisa) and in 1994 transferred to Gerda Haßler (Potsdam), resulted so far in three print-outs, each of them counting 1000 records. It is the aim of this website to publish the results of the collective efforts undertaken thus far (R.L.A. 1.0, 1986-1999).
Inhalt: 1. Untersuchungsfeld 2. Allgemeine Angaben zu den befragten Kommunen 2.1 Haushaltsdefizit/-überschuss 2.2. Schuldenstand zum 31.12.2004 und Zinsausgaben 2.3. Durchschnittsverzinsung 3. Kommunales Debt Management 3.1. Zielsetzungen 3.2. Kreditmanagement 3.3. Derivatemanagement 3.4. Organisatorische Aspekte 4. Fazit
Content: 1 The Typology 1.1 Object Placement 2 Treatment of StG in terms of LF Movement – with and without Head Movement 3 An OT-solution in terms of linearisation (‘LF-to-PF-Mapping’) 3.1 The trigger for additional orders: Focus 3.2 Competitions 3.3 Summary 4 RP 4.1 LF Movement – with and without Head Movement 4.2 The OT-account for RP 4.3 Competitions 5 Summary
Content: 0 Introduction 1 Elements that block verb raising – a discussion 1.1 Haider’s observation 1.2 The other constructions 1.3 A possible explanation 1.4 Riemsdijk’s grafting approach as a possible alternative? 1.5 Intermediate Summary 2 Parsing problems with speech act adverbials in the pre-field
Content: 1 Introduction 2 A restrictive theory of head movement 2.1 Preliminary Remarks 2.2 Theoretical Problems of Head Movement 2.3 Remnant Phrasal Movement 2.4 Münchhausen Style Head Movement 3 Verb Second Movement 3.1 Introductory Remarks 3.2 Problems of V/2 constructions: Does V really move to Comp? 3.3 The preverbal position 3.4 The Second Position 4 References
Counting Markedness
(2003)
This paper reports the results of a corpus investigation on case conflicts in German argument free relative constructions. We investigate how corpus frequencies reflect the relative markedness of free relative and correlative constructions, the relative markedness of different case conflict configurations, and the relative markedness of different conflict resolution strategies. Section 1 introduces the conception of markedness as used in Optimality Theory. Section 2 introduces the facts about German free relative clauses, and section 3 presents the results of the corpus study. By and large, markedness and frequency go hand in hand. However, configurations at the highest end of the markedness scale rarely show up in corpus data, and for the configuration at the lowest end we found an unexpected outcome: the more marked structure is preferred.
The present paper addresses a current view in the psycholinguistic literature that case exhibits processing properties distinct from those of other morphological features such as number (cf. Fodor & Inoue, 2000; Meng & Bader, 2000a/b). In a speeded-acceptability judgement experiment, we show that the low performance previously found for case in contrast to number violations is limited to nominative case, whereas violations involving accusative and dative are judged more accurately. The data thus do not support the proposal that case per se is associated with special properties (in contrast to other features such as number) in reanalysis processes. Rather, there are significant judgement differences between the object cases accusative and dative on the one hand and the subject nominative case on the other. This may be explained by the fact that nominative has a specific status in German (and many other languages) as a default case.
The present paper addresses a current view in the psycholinguistic literature that case exhibits processing properties distinct from those of other morphological features such as number (cf. Fodor & Inoue, 2000; Meng & Bader, 2000a/b). In a speeded-acceptability judgement experiment, we show that the low performance previously found for case in contrast to number violations is limited to nominative case, whereas violations involving accusative and dative are judged more accurately. The data thus do not support the proposal that case per se is associated with special properties (in contrast to other features such as number) in reanalysis processes. Rather, there are significant judgement differences between the object cases accusative and dative on the one hand and the subject nominative case on the other. This may be explained by the fact that nominative has a specific status in German (and many other languages) as a default case.
In the recent literature there is a hypothesis that the human parser uses number and case information in different ways to resolve an initially incorrect case assignment. This paper investigates what role morphological case information plays during the parser’s detection of an ungrammaticality or its recognition that a reanalysis is necessary. First, we compare double nominative with double accusative ungrammaticalities in a word by word, speeded grammaticality task and in this way show that only double nominatives lead to a so-called ”illusion of grammaticality” (a low rate of ungrammaticality detection). This illusion was found to disappear when the second argument was realized by a pronoun rather than by a full definite determiner phrase, i.e. when the saliency of the second argument was increased. Thus, the accuracy in recognizing an ungrammaticality induced by the case feature of the second argument is dependent on the type of this argument. Furthermore, we found that the accuracy in detecting such case ungrammaticalities is distance sensitive insofar as a shorter distance leads to a higher accuracy. The results are taken as support for an ”expectationdriven” parse strategy in which the way the parser uses the information of a current input item depends on the expectation resulting from the parse carried out so far. By contrast, ”input-driven” parse strategies, such as the diagnosis model (Fodor & Inoue, 1999) are unable to explain the data presented here.
This work presents mathematical and computational approaches to cover various aspects of metabolic network modelling, especially regarding the limited availability of detailed kinetic knowledge on reaction rates. It is shown that precise mathematical formulations of problems are needed i) to find appropriate and, if possible, efficient algorithms to solve them, and ii) to determine the quality of the found approximate solutions. Furthermore, some means are introduced to gain insights on dynamic properties of metabolic networks either directly from the network structure or by additionally incorporating steady-state information. Finally, an approach to identify key reactions in a metabolic networks is introduced, which helps to develop simple yet useful kinetic models. The rise of novel techniques renders genome sequencing increasingly fast and cheap. In the near future, this will allow to analyze biological networks not only for species but also for individuals. Hence, automatic reconstruction of metabolic networks provides itself as a means for evaluating this huge amount of experimental data. A mathematical formulation as an optimization problem is presented, taking into account existing knowledge and experimental data as well as the probabilistic predictions of various bioinformatical methods. The reconstructed networks are optimized for having large connected components of high accuracy, hence avoiding fragmentation into small isolated subnetworks. The usefulness of this formalism is exemplified on the reconstruction of the sucrose biosynthesis pathway in Chlamydomonas reinhardtii. The problem is shown to be computationally demanding and therefore necessitates efficient approximation algorithms. The problem of minimal nutrient requirements for genome-scale metabolic networks is analyzed. Given a metabolic network and a set of target metabolites, the inverse scope problem has as it objective determining a minimal set of metabolites that have to be provided in order to produce the target metabolites. These target metabolites might stem from experimental measurements and therefore are known to be produced by the metabolic network under study, or are given as the desired end-products of a biotechological application. The inverse scope problem is shown to be computationally hard to solve. However, I assume that the complexity strongly depends on the number of directed cycles within the metabolic network. This might guide the development of efficient approximation algorithms. Assuming mass-action kinetics, chemical reaction network theory (CRNT) allows for eliciting conclusions about multistability directly from the structure of metabolic networks. Although CRNT is based on mass-action kinetics originally, it is shown how to incorporate further reaction schemes by emulating molecular enzyme mechanisms. CRNT is used to compare several models of the Calvin cycle, which differ in size and level of abstraction. Definite results are obtained for small models, but the available set of theorems and algorithms provided by CRNT can not be applied to larger models due to the computational limitations of the currently available implementations of the provided algorithms. Given the stoichiometry of a metabolic network together with steady-state fluxes and concentrations, structural kinetic modelling allows to analyze the dynamic behavior of the metabolic network, even if the explicit rate equations are not known. In particular, this sampling approach is used to study the stabilizing effects of allosteric regulation in a model of human erythrocytes. Furthermore, the reactions of that model can be ranked according to their impact on stability of the steady state. The most important reactions in that respect are identified as hexokinase, phosphofructokinase and pyruvate kinase, which are known to be highly regulated and almost irreversible. Kinetic modelling approaches using standard rate equations are compared and evaluated against reference models for erythrocytes and hepatocytes. The results from this simplified kinetic models can simulate acceptably the temporal behavior for small changes around a given steady state, but fail to capture important characteristics for larger changes. The aforementioned approach to rank reactions according to their influence on stability is used to identify a small number of key reactions. These reactions are modelled in detail, including knowledge about allosteric regulation, while all other reactions were still described by simplified reaction rates. These so-called hybrid models can capture the characteristics of the reference models significantly better than the simplified models alone. The resulting hybrid models might serve as a good starting point for kinetic modelling of genome-scale metabolic networks, as they provide reasonable results in the absence of experimental data, regarding, for instance, allosteric regulations, for a vast majority of enzymatic reactions.
Do we know the answer?
(2003)
The Earth’s magnetic field (EMF) is generated by convections in the electrically conducting liquid iron-rich outer core, modified by the Earth’s rotation. A drastic manifestation of the dynamics of this fluid body is the occurrence of geomagnetic field reversals in the Earth’s history but also geomagnetic excursions, which are more frequent features of otherwise stable polarity chrons, but often poorly constrained in the geological record. To better understand the origin of the field, we need to know how the field has varied on different geological timescales. This includes not only information about changes in the ancient field’s direction but also about the absolute intensity (palaeointensity) and the age. This palaeointensity record is needed for compiling a full-vector description of the field. A palaeomagnetic and palaeointensity study on lava flows allows gaining insights about the evolution of the EMF through time and space. However, constraining the EMF evolution over different geological timescales remains a difficult objective due to the paucity of available palaeointensity data. One new alternative approach in palaeointensity studies is the recently proposed multispecimen parallel differential pTRM (MS) method, which has potentially several advantages over the commonly used Thellier method, because it is in theory independent of magnetic domain state, less prone to biasing effects, such as thermal alteration and significantly faster to perform in the laboratory. A study of highly active volcanic regions, such as the Trans-Mexican Volcanic Belt, seems promising when attempting a full-vector reconstruction or when looking for field excursions. One aim of this thesis was to gain new information about the occurrence and global validity of geomagnetic excursions from the Brunhes- or Matuyama Chron. For this purpose some 75 lava flows from within the Trans-Mexican Volcanic Belt were sampled for palaeomagnetic analyses. The scatter of virtual geomagnetic poles from lavas younger than 1.7 Ma was used for estimating palaeosecular variation and was found to be consistent with latitude dependent Model G and other high quality palaeomagnetic data from Mexico. The palaeomagnetic mean-vectors of 56 lavas were correlated to the Geomagnetic Polarity Timescale supplemented with information on geomagnetic excursions. On the grounds of their associated radioisotopic ages, four lavas were tentatively correlated with known excursions from marine records. Two lava flows dating of Brunhes Chron were associated with the Big Lost and Delts/Stage 17 excursions, respectively. From further two flows dating of Matuyama Chron, one flow was associated with either the Santa Rosa- or Kamikatsura excursions, while the other could have been emplaced during the Gilsa excursion. The most significant outcome was the finding that both Brunhes excursional flows display nearly fully reversed directions that deviate almost 180°C from the expected normal polarity direction. This observation could indicate that in particular the Big Lost and Delta/Stage17 excursions may represent other short periods during which the field completed a full reversal for a short time, such as was previously found for other older cryptochrons or tiny wiggles. Another focus of this thesis was set on estimating the feasibility of the new MS method for routine palaeointensity determination. This was accomplished by applying the MS method to samples from 11 historical lava flows from Mexico and Iceland from which the actual field intensity was either known from contemporary observatory data, or deduced from magnetic field models. Comparing observed with expected intensity values allowed to test the accuracy of the MS method. It a was found that the majority of palaeointensity estimates after the MS method yielded results that were very close or indistinguishable within the range of uncertainty from the expected values. However, a general trend towards an overestimate in the palaeointensity was also observed, which, on the grounds of corroborating rock magnetic analyses, was associated with multidomain material. This observation was taken as first evidence that the MS method is not entirely independent of magnetic domain state, as was originally claimed. However, a second experiment in which a modification of the most widely used Thellier method was applied to sister samples from 5 Icelandic flows revealed that, in comparison to the MS method, the latter produced more accurate and statistically better defined palaeointensities. Thus, from these first results, the MS method appeared as a viable alternative for future palaeointensity studies. Subsequently it was attempted to corroborate the directional record from Mexican lavas with palaeointensity data. It was possible to acquire palaeointensity estimates for 32 out of 51 investigated lava flows. These new results revealed that the new MS palaeointensities for Mexico are, with a high degree of statistical significance, around 30% higher than expected. The generally high palaeointensities seem to corroborate the results obtained from historical lava flows in this study and other previous studies on synthetic samples where domain state effects were found to cause overestimates in the palaeointensity of up to 30 per cent in the MS method. The primary process that leads to this overestimate is assigned to an asymmetry in the demagnetisation and remagnetisation process. Yet, this overestimate is expected to be no larger than what might be expected from Thellier experiments performed on samples with a given degree of multidomain behaviour.
Modern anthropogenic forcing of atmospheric chemistry poses the question of how the Earth System will respond as thousands of gigatons of greenhouse gas are rapidly added to the atmosphere. A similar, albeit nonanthropogenic, situation occurred during the early Paleogene, when catastrophic release of carbon to the atmosphere triggered abrupt increase in global temperatures. The best documented of these events is the Paleocene-Eocene Thermal Maximum (PETM, ~55 Ma) when the magnitude of carbon addition to the oceans and atmosphere was similar to those expected for the future. This event initiated global warming, changes in hydrological cycles, biotic extinction and migrations. A recently proposed hypothesis concerning changes in marine ecosystems suggests that this global warming strongly influenced the shallow-water biosphere, triggering extinctions and turnover in the Larger Foraminifera (LF) community and the demise of corals. The successions from the Adriatic Carbonate Platform (SW Slovenia) represent an ideal location to test the hypothesis of a possible causal link between the PETM and evolution of shallow-water organisms because they record continuous sedimentation from the Late Paleocene to the Early Eocene and are characterized by a rich biota, especially LF, fundamental for detailed biostratigraphic studies. In order to reconstruct paleoenvironmental conditions during deposition, I focused on sedimentological analysis and paleoecological study of benthic assemblages. During the Late Paleocene-earliest Eocene, sedimentation occurred on a shallow-water carbonate ramp system characterized by enhanced nutrient levels. LF represent the common constituent of the benthic assemblages that thrived in this setting throughout the Late Paleocene to the Early Eocene. With detailed biostratigraphic and chemostratigraphic analyses documenting the most complete record to date available for the PETM event in a shallow-water marine environment, I correlated chemostratigraphically for the first time the evolution of LF with the δ¹³C curves. This correlation demonstrated that no major turnover in the LF communities occurred synchronous with the PETM; thus the evolution of LF was mainly controlled by endogenous biotic forces. The study of Late Thanetian metric-sized microbialite-coral mounds which developed in the middle part of the ramp, documented the first Cenozoic occurrence of microbially-cemented mounds. The development of these mounds, with temporary dominance of microbial communities over corals, suggest environmentally-triggered “phase shifts” related to frequent fluctuations of nutrient/turbidity levels during recurrent wet phases which preceding the extreme greenhouse conditions of the PETM. The paleoecological study of the coral community in the microbialites-coral mounds, the study of corals from Early Eocene platform from SW France, and a critical, extensive literature research of Late Paleocene – Early Eocene coral occurrences from the Tethys, the Atlantic, the Caribbean realms suggested that these corals types, even if not forming extensive reefs, are common in the biofacies as small isolated colonies, piles of rubble or small patch-reefs. These corals might have developed ‘alternative’ life strategies to cope with harsh conditions (high/fluctuating nutrients/turbidity, extreme temperatures, perturbation of aragonite saturation state) during the greenhouse times of the early Paleogene, representing a good fossil analogue to modern corals thriving close to their thresholds for survival. These results demonstrate the complexity of the biological responses to extreme conditions, not only in terms of temperature but also nutrient supply, physical disturbance and their temporal variability and oscillating character.
Dietary antioxidants are believed to play an important role in the prevention and treatment of a variety of diseases associated with oxidative stress. Although there is a wide range of dietary antioxidants, the bulk of the research to date has been focused on the nutrient antioxidants vitamin C, E, and carotenoids. Certain relatively uncommon antioxidants such as lipoic acid (LA), and phenolic compounds such as (-)-epicatechin (EC), (-)-epigallocatechin (EGC), (-)-epicatechin gallate (ECG), and (-)-epigallocatechin gallate (EGCG), have not been extensively investigated although they may exert greater antioxidant potency than that of carotenoids and vitamins. Extracts from selected plants and plant byproducts may represent rich sources for one or more of such antioxidants and therefore exhibit higher effects than a single antioxidant due to the synergistic effects produced between such antioxidants. However, in the last decade a number of epidemiological, animal and in vitro studies have suggested a protective and therapeutic potency of these antioxidants in a broad range of diseases such as cancer, diabetes, atherosclerosis, cataract and acute and chronic neurological disorders. Inflammation, the response of the host toward any infection or injury, plays a central role in the development of many chronic diseases. Several evidences demonstrated the rise of different types of cancer from sites of inflammation. This suggests that active oxygen species and some cytokines generated in the inflamed tissues can cause injury to DNA and ultimately lead to carcinogenesis. Diethylnitrosamine (DEN) is one of the most important environmental carcinogens, present in a variety of foods, alcoholic beverages, tobacco smoke and it can be synthesized endogenously. In addition to the liver it can induce carcinogenesis in other organs like kidney, trachea, lung, esophagus, fore stomach, and nasal cavity. Several epidemiological and laboratory studies indicate that nitroso compounds including DEN may induce hyperplasia and chronic inflammation which is closely associated with the development of hepatocellular carcinoma. Despite increasing evidence on the potential of antioxidants in modulating the etiology of chronic diseases, little is known about their role in inflammation and acute phase response (APR). Therefore the aim of the present work was to study the protective effect of water and solvent extracts of eight plant and plant byproducts including green tea, artichoke, spinach, broccoli, onion and eggplant, orange and potato peels as well as eight antioxidants agents including EC, EGC, ECG, EGCG, ascorbic acid (AA), acetylcysteine (NAC), α-LA, and alpha-tocopherol (α-TOC) toward acute inflammation induced by interleukin-6 (IL-6) and hepatotoxicity induced by DEN in vitro. The negative acute phase proteins (APP), transthyretin (TTR) and retinol-binding protein (RBP) were used as inflammatory biomarkers analyzed by ELISA, whereas neutral red assay was used for evaluating the cytotoxicity. All experiments were performed in vitro using human hepatocarcinoma cell line (HepG2). Additionally the antioxidant activity was measured by TEAC and FRAP assays, phenolic content was measured by Folin–Ciocalteu and characterized by HPLC. Moreover, the microheterogeneity of TTR was detected using immunoprecipitation assay combined with SELDI-TOF MS. Results of present study showed that HepG2 cells provide a simple, sensitive in vitro system for studying the regulation of the negative APP, TTR and RBP under free and inflammatory condition. IL-6, a potent proinflammatory cytokine, in a concentration of 25 ng/ml was able to reduce TTR and RBP secretion by approximately 50-60% after 24h of incubation. With exception of broccoli and water extract of onion which showed pro-inflammatory effects in this study, all other plant extracts, at specific concentrations, were able to elevate TTR secretion in normal condition and even under treatment of IL-6 where the effect was quite lower. Green tea followed by artichoke and potato peel exhibited the highest elevation in TTR concentration which reached 1.1 and 2.5 folds of control in presence and absences of IL-6 respectively. In general Plant extracts were ordered according their anti-inflammatory potency as following: in water extracts; green tea > artichoke > potato peel > orange peel > spinach > eggplant peel, where in solvent extracts; green tea > artichoke > potato peel > spinach > eggplant peel > onion > orange peel. The antiinflammatory effect of water extracts of green tea, artichoke and orange peel were significantly higher than their corresponding solvent extracts whereas water extracts of eggplant-, potato peels and spinach showed lower effect than their solvent extracts. On the other hand α-LA followed by EGCG and ECG exhibited the highest elevation in TTR concentration compared to other antioxidants. The relation between the anti-inflammatory potential and antioxidants activity and phenolic content for the investigated substances was generally weak. This may suggest the involvement of other mechanisms than antioxidants properties for the observed effect. TTR secreted by HepG2 cells has a molecular structure quite similar to the purified standard and serum TTR in which all the three main variants are contained including native, S-cystinylated and Sglutathionylated TTR. Interestingly, a variant with molecular mass of 13453.8 + 8.3 Da has been detected only in TTR secreted by HepG2. Among all investigated antioxidants and plant extracts, six substances were able to elevate the native preferable TTR variant. The potency of these substances can be ordered as following α-LA > NAC > onion > AA > EGCG > green tea. A weak correlation between elevation on TTR and shifting to the native form was observed. Similar weak correlation has also been observed between antioxidants activity and elevation in native TTR. Although DEN was able to induce cell death in a concentration dependent manner, it requires considerably higher concentrations for its effects especially after 24h. This may be attributed to a lack in cytochrome P450 enzymes produced by HepG2. At selected concentrations some antioxidants and plant extracts significantly attenuate DEN cytotoxicity as following: spinach > α-LA > artichoke > orange peel > eggplant peel > α-TOC > onion > AA. Contrary all other substances especially green tea, broccoli, potato peel, and ECG stimulate DEN toxicity. In conclusion, this study demonstrated that selected antioxidants and plant extracts may attenuate the inflammatory process, not only by their antioxidants potency but also by other mechanisms which remain unclear. They may also play a vital role on stabilizing the tetramic structure of TTR and thereby prevent amyloidosis diseases. Lipoic acid represents in this study unique function against inflammation and hepatotoxicity. Despite the protective effect demonstrated by investigated substances, attention should also be given to the pro-oxidant and potential cytotoxic effects produced at higher concentrations.