Refine
Has Fulltext
- yes (460) (remove)
Year of publication
- 2010 (460) (remove)
Document Type
- Article (149)
- Doctoral Thesis (83)
- Monograph/Edited Volume (72)
- Postprint (49)
- Review (27)
- Conference Proceeding (25)
- Part of Periodical (18)
- Preprint (16)
- Master's Thesis (10)
- Working Paper (5)
Language
- German (287)
- English (156)
- Multiple languages (8)
- Spanish (8)
- French (1)
Keywords
- Deutschland (19)
- Germany (19)
- Poland (18)
- Polen (18)
- Integration (17)
- Consolidation (15)
- European Union (15)
- Europäische Union (15)
- Vertiefung (15)
- Humboldt und Hispanoamerika (5)
Institute
- WeltTrends e.V. Potsdam (43)
- Institut für Jüdische Studien und Religionswissenschaft (35)
- Vereinigung für Jüdische Studien e. V. (33)
- Wirtschaftswissenschaften (31)
- Kommunalwissenschaftliches Institut (30)
- MenschenRechtsZentrum (30)
- Historisches Institut (27)
- Extern (25)
- Department Linguistik (22)
- Institut für Informatik und Computational Science (22)
Mit der 4. Tagung zur Hochschuldidaktik Informatik wird eine Reihe fortgesetzt, die ihren Anfang 1998 in Stuttgart unter der Überschrift „Informatik und Ausbildung“ genommen hat. Seither dienen diese Tagungen den Lehrenden im Bereich der Hochschulinformatik als Forum der Information und des Diskurses über aktuelle didaktische und bildungspolitische Entwicklungen im Bereich der Informatikausbildung. Aktuell zählen dazu insbesondere Fragen der Bildungsrelevanz informatischer Inhalte und der Herausforderung durch eine stärkere Kompetenzorientierung in der Informatik. Die eingereichten Beiträge zur HDI 2010 in Paderborn veranschaulichen unterschiedliche Bemühungen, sich mit relevanten Problemen der Informatikdidaktik an Hochschulen in Deutschland (und z. T. auch im Ausland) auseinanderzusetzen. Aus der Breite des Spektrums der Einreichungen ergaben sich zugleich Probleme bei der Begutachtung. Letztlich konnten von den zahlreichen Einreichungen nur drei die Gutachter so überzeugen, dass sie uneingeschränkt in ihrer Langfassung akzeptiert wurden. Neun weitere Einreichungen waren trotz Kritik überwiegend positiv begutachtet worden, so dass wir diese als Kurzfassung bzw. Diskussionspapier in die Tagung aufgenommen haben.
Ziel dieses Beitrages ist es, das didaktische Konzept Fallstudien und seine lerntheoretisch-didaktische Begründung vorzustellen. Es wird die These begründet, dass mediale Räume für die Bearbeitung von Fallstudien lernunterstützend wirken und sich in besonderer Weise für Prozesse der Lernberatung und Lernbegleitung in der Hochschule eignen. Diese These wird entlang dem lerntheoretischen Konzept der Bedeutungsräume von Studierenden in Verbindung mit den Spezifika medialer Räume entfaltet. Für den daraus entstandenen E-Learning-Ansatz Online-Fallstudien kann hier lediglich ein Ausblick gegeben werden.
Zwischen Thron und Ballotage
(2010)
I. Einleitung II. Ehepaare und eingetragene Lebenspartnerschaften III. Einstandsgemeinschaften IV. Die nicht funktionierende Bedarfsgemeinschaft V. Die vom Kind gebildete Bedarfsgemeinschaft VI. Stiefkinder in der Bedarfsgemeinschaft VII. Gemischte Bedarfsgemeinschaften VIII. Die zeitweise Bedarfsgemeinschaft IX. Haushaltsgemeinschaften
Macht und Ohnmacht
(2010)
I. Keine europäischen Vorgaben zur Haftung II. Anwendung allgemeiner Amtshaftungsgrundsätze III. System der Amtshaftung in Deutschland IV. Maßgebliche Amtshandlungen des Einheitlichen Ansprechpartners V. Maßgebliche Amtshandlungen zuständiger Stellen VI. Amtshaftung wegen fehlender elektronischer Erreichbarkeit? VII. Haftende Körperschaft
I. Ausgewählte Strukturdaten zum Landkreis Oder-Spree II. Stärkung der kommunalen Selbstverwaltung durch die Option III. Option als Impulsgeber für Ansätze der Verwaltungsmodernisierung IV. Tragende Entscheidungsaspekte pro Option aus der Sicht der Kommunalpolitik V. Rückmeldungen zur Aufgabendurchführung aus der Bürgersphäre VI. Intensive Begleitung des Umsetzungsprozesses durch die Kommunalpolitik VII. Personelle und organisatorische Handlungsautonomie als Erfolgskriterium für die Arbeit des Amtes für Grundsicherung und Beschäftigung VIII. Unterschiede im Aufgabenverständnis und ihre Auswirkungen auf die Verwaltungspraxis
I. Einführung II. Die Anspruchsvoraussetzungen für den Erhalt von Leistungen II.1. Erwerbsfähigkeit nach § 8 SGB II II.2. Hilfebedürftigkeit nach § 9 SGB II III. Die Leistungen des SGB II im Überblick III.1. Leistungen zur Eingliederung in Arbeit III.2. Leistungen zur Sicherung des Lebensunterhalts IV. Ausgewählte Einzelprobleme IV.1. Leistungen zur Eingliederung in Arbeit IV.2. Leistungen zur Sicherung des Lebensunterhalts
I. Einleitung II. Die Zusammenführung von Arbeitslosen und Sozialhilfe als Paradigmenwechsel III. Verfassungsrechtliche Grundlage der Weiterentwicklung, Art. 91e GG IV. Überblick über die wichtigsten allgemeinen Regelungsinhalte V. Gemeinsame Einrichtung – „Jobcenter“ V.1. Struktur V.2. Personal V.3. Aufsicht V.4. IT; Datenschutz VI. Optionskommunen VI.1. Entfristung der bestehenden 69 Optionskommunen VI.2. Neuzulassungen in begrenztem Umfang und unter bestimmten Voraussetzungen VI.3. Gebietsreform VI.4. Aufsicht, Zielvereinbarungssystem VI.5. Finanzkontrolle VII. Übergreifende Strukturen VII.1. Kooperationsausschüsse auf Landesebene VII.2. Bund-Länder-Ausschuss VII.3. Örtliche Beiräte VII.4. Zielsteuerung, Benchmarking und Controlling VIII. Ausblick
Grußwort
(2010)
I. Genehmigungsregelungen im Kontext der Auseinandersetzungen um die Dienstleistungsrichtlinie II. Begriffliche Grundlagen II. 1. Genehmigungsbegriff II. 2. Abgrenzung von Niederlassungs- und Dienstleistungsfreiheit III. Anforderungen an Genehmigungen im Rahmen der Niederlassungsfreiheit III. 1. Anforderungen an Genehmigungsregelungen (Art. 9 DLRL) III. 2. Voraussetzungen für die Erteilung der Genehmigung (Art. 10 DLRL) III. 3. Genehmigungsdauer (Art. 11 DLRL) III. 4. Beschränkungen der Anzahl der Genehmigungen (Art. 12 DLRL) III. 5. Genehmigungsverfahren (Art. 13 DLRL) IV. Anforderungen an Tätigkeiten im Rahmen des freien Dienstleistungsverkehrs V. Zusammenfassung und Bewertung
Wie kaum eine andere soziale Bewegung der letzten 25 Jahre erfuhren die Zapatisten eine weltweite, breite Rezeption. Von der medialen Präsenz der 1990er Jahre ist jedoch nicht viel übrig geblieben. Um die mexikanischen Guerillas ist es ruhig geworden. Wurden die Zapatistas vom Zeitgeist überholt? Verloren ihre postneoliberalen Ansätze durch den Wandel der Bewegung an Attraktivität? Das Papier geht den Ursprüngen der indigenen Aufstandsbewegung und deren Paradigmenwechsel nach und zeigt auf, wie trotz des neu eingeschlagenen Weges der antisystemische und antietatistische Charakter der Bewegung beibehalten wurde.
Die faulige Luft aus dem tiefsten Mittelalter, denken sich zivilisierte Mitteleuropabewohnende, und sind erstaunt zu erfahren, dass es im Iran heute legal ist, sich von einer Frau in einen Mann umoperieren zu lassen, oder umgekehrt. Noch besser: Die Geschlechtsumwandlung wird von der Krankenkasse bezahlt.
Abstract interpretation-based model checking provides an approach to verifying properties of infinite-state systems. In practice, most previous work on abstract model checking is either restricted to verifying universal properties, or develops special techniques for temporal logics such as modal transition systems or other dual transition systems. By contrast we apply completely standard techniques for constructing abstract interpretations to the abstraction of a CTL semantic function, without restricting the kind of properties that can be verified. Furthermore we show that this leads directly to implementation of abstract model checking algorithms for abstract domains based on constraints, making use of an SMT solver.
In den vergangenen Jahren gewannen in der Personalwirtschaft Begriffe wie War for Talent und Fachkräftemangel immer mehr an Bedeutung. Unternehmen der Privatwirtschaft betreiben daher gezielt Personalmarketing - öffentliche Verwaltungen bisher kaum. Obwohl die Kombination aus einer überalterten Belegschaft, sinkenden Schulabsolventenzahlen und einem weitgehend unattraktiven Arbeitgeberimage insbesondere für öffentliche Verwaltungen die Gefahr eines eklatanten Mangels qualifizierter Nachwuchskräfte birgt. Die vorliegende Arbeit geht der Frage nach wie Personalmarketing in öffentlichen Verwaltungen bereits erfolgreich betrieben wird und welche Erfolgsfaktoren sich daraus für den Einsatz in anderen Verwaltungen ableiten lassen. Mit Hilfe der Analyse eines Best Practice-Ansatzes und auf der Basis der für die Privatwirtschaft bereits identifizierten Erfolgsfaktoren werden diese für den erfolgreichen Einsatz von Personalmarketing in der öffentlichen Verwaltung herausgearbeitet. Der Fokus des Praxisbeispiels liegt dabei auf der Rekrutierung von Nachwuchskräften für den mittleren und gehobenen allgemeinen nicht-technischen Verwaltungsdienst. Als Best Practice-Beispiel dient das Ausbildungsmarketing der Freien und Hansestadt Hamburg. Im Ergebnis decken sich die grundsätzlichen Erfolgsfaktoren mit denen der Privatwirtschaft. Dazu gehören u. a. das Vorhandensein eines strategischen Konzepts, die Formulierung klarer und messbarer Ziele sowie das systematische Überprüfen der Effektivität und Effizienz des Personalmarketing sowie einzelner Instrumente. Für öffentliche Verwaltungen ist es zudem besonders wichtig das Arbeitgeberimage zu verbessern. Dies sollte bei der Ansprache von Nachwuchskräften mit Hilfe moderner Medien, durch Einblicke in Verwaltungsaufgaben und die Einbindung von Eltern und Schulen geschehen.
Die Integration Europas bleibt für die Sozialwissenschaften eine Quelle der Inspiration und Herausforderung. Auch 53 Jahre nach Unterzeichnung der Römischen Verträge ist der Kontinent weiter in Bewegung, geht es um die Vision seiner zukünftigen Gestalt ebenso wie um die Regelung vielfältigster Tagesprobleme. Um zu dieser Debatte einen spezifischen Beitrag zu leisten, fand im Juni 2010 an der Universität Potsdam eine deutsch-polnische Konferenz zum Thema „Europa als Inspiration und Herausforderung aus sozialwissenschaftlicher Sicht“ statt. Dabei wurden unterschiedliche Ansätze der europawissenschaftlichen Forschungen in den beteiligten Einrichtungen (z. B. aus der Sicht von Politologen, Soziologen, Historikern oder Kulturwissenschaftlern) präsentiert. Zugleich diente die Konferenz dazu, das wissenschaftliche Forschungsinteresse am „nahen Osten“ wieder zu stärken.
Die besondere Beziehung zwischen Humboldt und Darwin, zwei der bedeutendsten Persönlichkeiten in der Welt der Naturwissenschaften und der Biologie des 19. Jahrhunderts, wird detailliert auf den verschiedenen Ebenen ihres Kontaktes analysiert, sowohl was das real stattgefundene persönliche Treffen betrifft, als auch hinsichtlich ihrer Korrespondenz und der Koinzidenz von Ideen. Dieser wechselseitige Blick zeigt uns wie sich die beiden Gelehrten gegenseitig wahrnahmen, ob sie wirklich versuchten, mit dem Paradigma ihrer bedeutenden Vorgänger zu brechen, oder ob sie lediglich schrittweise das bereits erlangte Wissen erweiterten, bis es durch die Erstellung einer genialen Idee zu einem Bruch des bisherigen Wissens kommt. Bekannt ist die wiederholte Referenz von Darwin auf die Werke Humboldts, insbesondere auf die Tagebücher des deutschen Naturwissenschaftler und seine Art der Beschreibung der amerikanischen Natur in ihrer ganzen Reichhaltigkeit. Weniger bekannt hingegen sind andere Verweise in seiner Autobiografie, sowie die wissenschaftliche Verwendung des Humboldtschen Werkes oder die Zitate in seiner Korrespondenz, die in diesem Beitrag aufgezeigt werden. Darüber hinaus wird die Verwendung der frühen Schriften von Darwin durch Humboldt in einigen seiner Publikationen, vor allem im Kosmos, erwähnt.
Das ITC SFN und der Mikronährstoff Se sind bekannt als chemopräventive Inhaltsstoffe von Gemüse der Brassica-Familie, welcher auch Brokkoli angehört. Die Wirkungen von sowohl SFN als auch Se beruhen auf zahlreichen verschiedenen Mechanismen. Es existieren jedoch Schnittstellen, an welchen Interaktionen beider Substanzen möglich sind. Basierend auf diesem Wissen wurden in dieser Arbeit Wechselwirkungen zwischen SFN und Se auf die Aktivität sowie Expression von Phase II Enzymen und Selenoproteinen untersucht. Der Einfluss der Kombination von SFN und Se auf die unter physiologischen Bedingungen stattfindende Proliferation und Apoptose war ebenso Gegenstand der Arbeit wie die Modulation von Entzündungsprozessen sowie der Tumorentstehung während der entzündungsverstärkten Colonkanzerogenese im Mausmodell. Das hinsichtlich seiner Wirksamkeit mit aus GRA hydrolysiertem SFN zunächst als vergleichbar befundene synthetische SFN wurde für die Untersuchung im AOM/DSS-induzierten Colontumormodell gewählt und in Kombination mit 3 verschiedenen Selendiäten verabreicht. Der Einfluss von SFN und Se auf Phase II Enzyme und Selenoproteine entlang des GIT war organabhängig und nach 4 Wochen geringer als nach 7 Tagen. Die schwächere Induktion deutet auf eine Anpassung des Organismus hin. Ein SFN-vermittelter Effekt auf NQO1 war im Selenmangel am deutlichsten. Die Aktivität des Selenoproteins TrxR wurde hingegen erst bei ausreichender Selenversorgung durch SFN beeinflusst. Die als Nrf2-Zielgen bekannte und in der Hierarchie der Selenoproteine einen hohen Rang einnehmende GPx2 konnte in bestimmten Organen bereits unter selenarmen Bedingungen durch SFN induziert werden. Eine Überexpression des Enzyms war jedoch nicht möglich. SFN steigerte, unabhängig vom Selenstatus, im oberen Abschnitt des GIT und im Colon die Aktivität der GST. Eine Induktion des eigenen Metabolismus wäre somit denkbar. Im Falle eines Mangels an GPx2 wurde GPx1 bei hinreichender Selenversorgung stärker exprimiert, allerdings konnte sie die Funktion von GPx2 nicht völlig erset-zen. Im Selenmangel kann die Aktivitätssteigerung der TrxR im Dünndarm, dem Ab-schnitt der Selenabsorption, als ein Versuch der GPx2-Kompensation angesehen werden. SFN war nicht in der Lage, über eine Aktivierung des Nrf2/ARE-Signalweges kompensatorische Effekte zu induzieren. Apoptotische Prozesse wurden unter physiologischen Bedingungen nur marginal durch SFN und Se moduliert. Das elektrophile ITC konnte lediglich im Selenmangel Apoptose im luminalen Bereich der Colonkrypten induzieren. Die durch supranutritive Selenkonzentration induzierte Apoptose im Kryptengrund wurde nicht durch SFN beeinflusst. Einer bei Abwesenheit der GPx2 erhöhten Apoptoserate im Kryptengrund wirkte SFN bei adäquater Selenversorgung entgegen, war indessen proapoptotisch unter selendefizienten Konditionen. Der Einfluss von SFN auf die Entzündung war deutlich abhängig vom Selenstatus. Während SFN im Selenmangel anscheinend prooxidative Prozesse induzierte und die Entzündungssymptome verschlimmerte, wirkte es unter adäquatem Selenstatus an-tiinflammatorisch. Den vergleichsweise milden Grad der Entzündung im selensupplementierten Status konnte SFN nicht zusätzlich beeinflussen. SFN veränderte die Inzi-denz colorektaler Tumore nicht. Ein, die Tumorinitiation blockierender SFN-Effekt durch direkte Hemmung der metabolischen Aktivierung des Prokanzerogens im selenadäquaten Zustand scheint offensichtlich. Eine Überversorgung mit Se kann protektiv im Hinblick auf Entzündung oder Colonkanzerogenese sein, jedoch bewirkt SFN keinen zusätzlichen Schutz. Kombinationseffekte von SFN und Se in Bezug auf Phase II Enzyme, Selenoproteine und Apoptose sowie die entzündungsverstärkte Colonkanzerogenese sind nicht eindeutiger Natur und können, abhängig vom Endpunkt, synergistische oder antagonistische Züge aufweisen. Eine bei Selendefizienz deutlichere Wirkung von SFN kann mit Hilfe der gesteigerten Aktivierung von Nrf2 erklärt werden, dies muss jedoch nicht von Vorteil sein. Bei adäquater Selenversorgung kann SFN kurzfristig antiinflammatorische und antikanzerogene Prozesse induzieren. Von einer längerfristigen ständigen SFN-Aufnahme in Form von GRA-reichen Brassicacea ist jedoch abzuraten, da von einer Adaptation auszugehen ist. Die Wirkung von SFN innerhalb der komplexen Pflanzenmatrix bleibt Gegenstand zukünftiger Untersuchungen.
Über die Autoren
(2010)
Im Zusammenhang mit einer geplanten Wiederveröffentlichung des Bandes Die Jugendbriefe Alexander von Humboldts 1787-1799 durch den Akademie Verlages im Andenken an die kürzlich verstorbene Mitherausgeberin Ilse Jahn sollen in loser Folge bisher unpublizierte Briefe aus der Jugendzeit Alexander von Humboldts in der Rubrik Von Humboldts Hand erscheinen. Der folgende Brief Alexander von Humboldts an den Göttinger Arzt Christoph Girtanner steht am Anfang dieser Reihe, welche sukzessive versucht, neuere Erkenntnisse der Alexander-von-Humboldt-Forschungsstelle in Bezug auf die Jugendbriefe zu publizieren. Das Schreiben, welches zur so genannten Berlinka-Sammlung der Biblioteka Jagiellońska in Krakau gehört, gelangte während des Zweiten Weltkrieges nach Polen, und ist der Forschungsstelle vor einiger Zeit zugänglich gemacht worden. Editorisch werden sich die in dieser Rubrik erscheinenden Briefe Humboldts in den bestehenden Band der Jugendbriefe von 1973 einfügen.
Uno de los misterios más persistentes en América ha sido dilucidar el origen de los pueblos vernáculos y de sus edificios. Resolver ese misterio ha sido objetivo de numerosos viajeros. Entre 1832 y 1836, siguiendo la estela de viajeros como Alejandro de Humboldt, un supuesto barón checo, Frédéric de Waldeck, consigue vender al gobierno mexicano una empresa exploratoria por las ruinas mayas de Palenque y Uxmal. De esta expedición deja testimonio en numerosos diarios que permanecen inéditos hasta la fecha, y en el libro Voyage pittoresque et archéologique dans la Province d’ Yucatán (1838). En estos escritos ensaya algunas explicaciones sobre el origen de los mayas y, en sus disquisiciones y supuestos, hace continuas referencias al trabajo de Humboldt. En un artículo previo vimos cómo Waldeck asimila el origen de los mayas a uno de los grandes misterios bíblicos de raíz histórica como es el de las tribus perdidas de Israel. En este trabajo presentamos su segunda gran hipótesis: aquella que vincula a Yucatán con la India a través de un modo de interpretar y representar la realidad americana que tiene en el orientalismo europeo su episteme definitiva.
Nomos und physis
(2010)
Alexander von Humboldt’s world view, philosophy of science, and scientific practice were dominated by the notions of measure and harmony. This matter of fact does not leave any doubt about Humboldt’s Pythagoreanism. Already the choice of the title of his Kosmos was led by Pythagorean thought. In 1846 he explicitly wrote to Jacobi that the whole first book is based on the idea that the first Hellenic seeds to all further progresses of mathematical natural knowledge are owed to the Pythagoreans and their emphasis on measure, number, and weight. The paper consists of four parts. The first part deals with Humboldt’s acquaintance with the fragments of the Pythagorean Philolaus. The second part compares the Aristotelean tradition with Philolaus’s informations on Pythagoreanism. The third part relying on the two foregoing parts explains Humboldt’s philosophy of science as a tranformation of Pythagoreanism. The last part discusses three examples taken from Humboldt’s scientific practice in order to illustrate the results deduced up to then.
El artículo discute la formación de los conceptos de la naturaleza, espacio y morfología en la obra de Alexander von Humboldt y sus impactos en la constitución de la geografía física moderna. Influido por las reflexiones de Kant en la Crítica del Juicio, por los trabajos de Goethe y de Schelling, Humboldt desarrollará una nueva interpretación y representación de la naturaleza en la superficie terrestre, donde el concepto de espacialidad será fundamental para la explicación de los fenómenos de la naturaleza. La geografía física moderna se estructura a partir de un complejo entrecruzamiento de influencias, tanto estéticas como instrumentales trabajadas por Humboldt, donde el principio de la conexión será importante para la invención artística y científica del concepto de paisaje geográfico.
Einleitung Die folgende Publikation ist eine der frühen Schriften Ilse Jahns über Alexander von Humboldt und zu Unrecht weitgehend in Vergessenheit geraten. Hier beschrieb sie eine wichtige Zeitetappe im Leben des jungen Naturwissenschaftlers Alexander von Humboldt: seine Studien während seiner Aufenthalte in Jena im Jahr 1797 bei Justus Christian Loder (1753-1832), der seit 1778 Professor der Medizin, Anatomie und Chirurgie an der Universität von Jena war. Nach seinen naturwissenschaftlichen und kameralistischen Studien in Frankfurt/Oder, Göttingen, Hamburg und Freiberg in Sachsen hatte Humboldt 1792 eine Anstellung als Assessor im preußischen Bergdienst angetreten, die er bis Ende 1796 innehatte. Während dieser Zeit beschäftigte er sich außerdem mit wissenschaftlichen Studien. Insbesondere versuchte er, durch galvanische Experimente (darunter auch schmerzhafte Selbstversuche), dem Geheimnis der Lebenskraft, einem damals hochaktuellen Thema, auf die Spur zu kommen. In dem Zusammenhang wurde sein erster Besuch 1794 bei seinem Bruder Wilhelm in Jena, einem wichtigen Zentrum der fortschrittlichen und durch die Aufklärung geprägten Wissenschaften jener Zeit, zu einem Schlüsselerlebnis für den jungen Forscher. Besonders Humboldts dritter Aufenthalt dort im Jahre 1797 war von der intensiven Arbeit gemeinsam mit Goethe und Loder geprägt. Bei letzterem hatte sein Bruder Wilhelm bereits 1794 anatomische Vorlesungen gehört. Im Leben Alexander von Humboldts fällt dieser Aufenthalt bereits in eine neue Phase. Er hatte nach Beendigung seiner Anstellung im Bergdienst und begünstigt durch das Erbe, das ihm nach dem Tod seiner Mutter 1796 zugefallen war, den Entschluss gefasst, eine große Forschungsreise zu unternehmen. Nun orientieren sich seine Interessen an diesem neuen Ziel: der wissenschaftlichen Vorbereitung dieser Reise. Auch deshalb intensivierte er seine anatomischen Studien bei Loder: die Teilnahme an Anatomievorlesungen und an einem Präparierkurs wurde 1797 seine Hauptbeschäftigung, wie er mehrfach in Briefen betonte (siehe unten, S. 95). Für Alexander von Humboldt, der zwei Jahre später zu seiner berühmten Amerikareise aufbrechen sollte, hatte dieser Aufenthalt also ebenso wie die in derselben Phase stattfindenden kleineren Reisen oder seine Beschäftigung mit Messinstrumenten einen prägenden Einfluss auf seine künftige Forschungskonzeption, die durch die Betonung von Experiment, Erfahrung und Vergleich gekennzeichnet ist. So wandte er beispielsweise in seinem Werk über seine galvanischen und chemischen Experimente „Versuche über die gereizte Muskel- und Nervenfaser“ bereits die für ihn später typische komparatistische Methode an. Der erste Band des Buchs, das er selbst sein „physiologisches Werke über den Lebensprocess“ nannte, erschien ebenfalls 1797 und war beeinflusst durch die physiologischen Experimente in dieser Phase. Ilse Jahn beleuchtete in dem vorliegenden Text die scientific community der Jenaer Klassik, in der vielseitig gebildete Größen der Kulturgeschichte gemeinsam intensive naturwissenschaftliche Studien trieben, praktische Experimente durchführten und Schlussfolgerungen diskutierten. Nicht nur wegen der besonderen fachlichen Zusammenarbeit und gegenseitigen Befruchtung ist die Schilderung von Interesse, sondern auch, weil diese Forschertätigkeit beispielhaft den zu der Zeit in den Naturwissenschaften, insbesondere in Biologie und Physiologie, stattfindenden paradigmatischen Wandel, die Emanzipation von der allgemeineren Naturkunde, beleuchtet. Hervorzuheben ist im folgenden Text ebenfalls die Betonung der gemeinsamen Tätigkeit, jedoch unterschiedlichen Blickrichtung der beiden Brüder, die ja sonst in der Literatur eher selten gemeinsam betrachtet oder verglichen werden. Die Beschäftigung der Autorin mit der Thematik der Zusammenarbeit und gegenseitigen Beeinflussung, aber auch der unterschiedlichen Ansichten und Methoden, die sie hier am Beispiel Loder, der Brüder Humboldt und Goethe darlegte, zog sich wie ein roter Faden durch ihre verschiedenen Arbeiten über Alexander von Humboldt bis zu der mehr als 30 Jahre später von ihr initiierten Leopoldina-Tagung „Das Allgemeine und das Einzelne – Johann Wolfgang von Goethe und Alexander von Humboldt im Gespräch“. Hier trafen sich 1999 in Halle Experten der Goethe- und Humboldt-Editionen zu einem fruchtbaren Meinungsaustausch. Wie Ilse Jahn betonte, ging es „um die wissenschaftliche Kommunikation selbst, um den Erfahrungsaustausch und den wissenschaftlichen Meinungsstreit [...] also gleichsam [...] um ein Ideal der akademischen Gemeinschaft.“ (Acta Historica Leopoldina, Bd. 38, S. 173) Von diesem Ideal legt nicht nur das gemeinsame Experimentieren in Jena 1797, sondern ebenso jene großartige Tagung 200 Jahre später, und, nicht zuletzt, die lange Zusammenarbeit Ilse Jahns mit der A.-v.-Humboldt-Forschungsstelle Zeugnis ab. Der verständliche und auch stilistisch angenehm lesbare Text, der bis heute nicht seine Aktualität eingebüßt hat, wird ohne zusätzliche Anmerkungen oder Erläuterungen mit der originalen Seitenzählung wiedergegeben. Lediglich kleinere Druckfehler wurden stillschweigend korrigiert. Ulrike Leitner
Militär vor Gericht
(2010)
This work presents the development of entropy-elastic gelatin based networks in the form of films or scaffolds. The materials have good prospects for biomedical applications, especially in the context of bone regeneration. Entropy-elastic gelatin based hydrogel films with varying crosslinking densities were prepared with tailored mechanical properties. Gelatin was covalently crosslinked above its sol gel transition, which suppressed the gelatin chain helicity. Hexamethylene diisocyanate (HDI) or ethyl ester lysine diisocyanate (LDI) were applied as chemical crosslinkers, and the reaction was conducted either in dimethyl sulfoxide (DMSO) or water. Amorphous films were prepared as measured by Wide Angle X-ray Scattering (WAXS), with tailorable degrees of swelling (Q: 300-800 vol. %) and wet state Young’s modulus (E: 70 740 kPa). Model reactions showed that the crosslinking reaction resulted in a combination of direct crosslinks (3-13 mol.-%), grafting (5-40 mol.-%), and blending of oligoureas (16-67 mol.-%). The knowledge gained with this bulk material was transferred to the integrated process of foaming and crosslinking to obtain porous 3-D gelatin-based scaffolds. For this purpose, a gelatin solution was foamed in the presence of a surfactant, Saponin, and the resulting foam was fixed by chemical crosslinking with a diisocyanate. The amorphous crosslinked scaffolds were synthesized with varied gelatin and HDI concentrations, and analyzed in the dry state by micro computed tomography (µCT, porosity: 65±11–73±14 vol.-%), and scanning electron microscopy (SEM, pore size: 117±28–166±32 µm). Subsequently, the work focused on the characterization of the gelatin scaffolds in conditions relevant to biomedical applications. Scaffolds showed high water uptake (H: 630-1680 wt.-%) with minimal changes in outer dimension. Since a decreased scaffold pore size (115±47–130±49 µm) was revealed using confocal laser scanning microscopy (CLSM) upon wetting, the form stability could be explained. Shape recoverability was observed after removal of stress when compressing wet scaffolds, while dry scaffolds maintained the compressed shape. This was explained by a reduction of the glass transition temperature upon equilibration with water (dynamic mechanical analysis at varied temperature (DMTA)). The composition dependent compression moduli (Ec: 10 50 kPa) were comparable to the bulk micromechanical Young’s moduli, which were measured by atomic force microscopy (AFM). The hydrolytic degradation profile could be adjusted, and a controlled decrease of mechanical properties was observed. Partially-degraded scaffolds displayed an increase of pore size. This was likely due to the pore wall disintegration during degradation, which caused the pores to merge. The scaffold cytotoxicity and immunologic responses were analyzed. The porous scaffolds enabled proliferation of human dermal fibroblasts within the implants (up to 90 µm depth). Furthermore, indirect eluate tests were carried out with L929 cells to quantify the material cytotoxic response. Here, the effect of the sterilization method (Ethylene oxide sterilization), crosslinker, and surfactant were analyzed. Fully cytocompatible scaffolds were obtained by using LDI as crosslinker and PEO40 PPO20-PEO40 as surfactant. These investigations were accompanied by a study of the endotoxin material contamination. The formation of medical-grade materials was successfully obtained (<0.5 EU/mL) by using low-endotoxin gelatin and performing all synthetic steps in a laminar flow hood.
Architektur und Städtebau des Sozialismus haben nach der politischen Wende der Jahre 1989-1991 einen erheblichen Wertungswandel erfahren. Insbesondere die in industrieller Bauweise errichteten Quartiere des komplexen Wohnungsbaus, die einstmals privilegierte Wohngegenden waren, haben heute oftmals den Ruf von „Ghettos“. Die vorliegende Arbeit möchte einen Beitrag dazu leisten, dieses Bild zu korrigieren und das öffentliche Image von Plattenbausiedlungen zu verbessern. Dazu wurde anhand des ostdeutschen Plattenbaugebietes Strausberg-Hegermühle untersucht, welche Faktoren die positive Identifikation der Bewohner mit ihrem Viertel begünstigen. Ziel der Arbeit ist, damit Anregungen für die Praxis lokal engagierter Bürger, Kommunalpolitiker, Wohnungsgesellschaften und Verwaltungen zu geben. Das Wohngebiet „Hegermühle“ in der brandenburgischen Mittelstadt Strausberg wurde in den 1980er Jahren gebaut. Die Bevölkerung Hegermühles war bis 1990 stark durch Mitarbeiter des Ministeriums für Nationale Verteidigung der Deutschen Demokratischen Republik geprägt. Die Wohnungen im Viertel waren wegen ihres hohen technischen Standards begehrt. Nach dem Ende der DDR erfuhr das Viertel einen starken Wandel seiner Sozialstruktur und bekam ein Image, das zwischen den Polen „graue Schlafstadt“ und „sozialer Brennpunkt“ angesiedelt ist. In diesem Wohngebiet wurde im zweiten Halbjahr 2009 eine qualitative Untersuchung durchgeführt. Neben mehreren in Bild- und Textform dokumentierten Feldexplorationen wurde eine Reihe von Interviews mit Personen geführt, die aktuell in Hegermühle wohnen oder früher dort wohnten. Die Auswahl der Interviewpartner erfolgte nach der Methode des Theoretical Sampling (Glaser/Strauss), wobei eine möglichst große Differenzierung des Samples nach Alter, Herkunft, Geschlecht und Beruf angestrebt wurde. Die Interviews wurden nach der Methode des Problemzentrierten Interviews (Witzel) geführt und auf Grundlage des Konzepts der Grounded Theory (Glaser/Strauss) ausgewertet. Für die Arbeit wurden acht Interviews ausgewählt, in denen die Interviewten Auskunft geben über die folgenden Themen: die Umstände ihres Zuzugs nach Hegermühle, die Entwicklung des Wohngebiets seitdem, das Image Hegermühles, ihr eigenes Verhältnis zum Viertel und die Perspektiven des Wohngebiets. Als Ergebnis der Arbeit lässt sich festhalten, dass die positive Identifikation mit dem Wohngebiet am stärksten durch die problematische Sozialstruktur behindert wird, die in hohem Maße von Arbeitslosigkeit und sozialen Desintegrationserscheinungen geprägt ist. Davon abgesehen überwiegen pragmatische Kriterien bei der Bewertung des Wohngebiets. Die gute infrastrukturelle Ausstattung Hegermühles mit Einkaufs-, Betreuungs- und Erholungsmöglichkeiten wurde von allen Befragten positiv hervorgehoben. Diese Faktoren sind jedoch genau so auch in anderen Orten zu finden und damit nicht geeignet, eine Identifikation mit einem spezifischen Ort zu befördern. Von den Befragten wurde daher auch mehrfach auf das Fehlen von Merkmalen hingewiesen, die Hegermühle auszeichnen und es von anderen Vierteln abheben. Dagegen war die Lokalidentität bei den Interviewpartnern am stärksten, die den Aufbau Hegermühles in den 1980er Jahren persönlich miterlebt haben. Die Arbeit schließt darum mit Überlegungen, wie diese Erfahrung einer Ortsgeschichte, die Bedeutung für die eigene Biografie hat, anderen Einwohnern vermittelt werden kann. Zwei mögliche Konzepte werden vorgeschlagen: a) die Erforschung und Vermittlung der Wohngebietsgeschichte, sowie b) die Schaffung und Pflege räumlicher Identifikationspunkte, die die lokale Geschichte, Landschaft und andere Besonderheiten des Viertels im Alltag erfahrbar machen. Beispielsweise können Kunstwerke im öffentlichen Raum oder Gedenktafeln als Anknüpfungspunkte einer ortsbezogenen Identität dienen und ein Gefühl persönlicher Verbundenheit mit dem Wohnort bestärken. Damit könnte unabhängig von pragmatischen Faktoren eine Bindung an den Ort begünstigt und die Bereitschaft der Einwohner erhöht werden, sich für die Verbesserung der Verhältnisse im Wohngebiet einzusetzen.
Wie interpretieren Kinder nur? : Experimentelle Untersuchungen zum Erwerb von Informationsstruktur
(2010)
Im Zentrum der Arbeit steht die Frage, wie sechsjährige monolingual deutsche Kinder Sätze mit der Fokuspartikel nur interpretieren. In 5 Experimenten wurde untersucht, welchen Einfluss die Oberflächenposition der Fokuspartikel auf das Satzverständnis hat und ob die kontextuelle Einbettung der nur-Sätze zu einer zielsprachlichen Interpretation führt. Im Gegensatz zu den Ergebnissen bisheriger Studien (u.a. Crain, et al. 1994; Paterson et al. 2003) zeigen die Daten der Arbeit, dass die getesteten Kinder die präsentierten nur-Sätze zielsprachlich interpretierten, wenn diese in einen adäquaten Kontext eingebettet waren. Es zeigte sich weiterhin, dass die Kinder mehr Fehler bei der Interpretation von Sätzen mit nur vor dem Subjekt (Nur die Maus hat einen Ball.) als mit nur vor dem Objekt (Die Maus hat nur einen Ball.) machten. Entgegen dem syntaktisch basierten Ansatz von Crain et al. (1994) und dem semantisch-pragmatisch basierten Ansatz von Paterson et al. (2003) werden in der Arbeit informationsstrukturelle Eigenschaften bzw. Unterschiede der nur-Sätze für die beobachteten Leistungen verantwortlich gemacht. Der in der Arbeit postulierte Topik-Default Ansatz nimmt an, dass die Kinder das Subjekt eines Satzes immer als Topik analysieren. Dies führt im Fall der Sätze mit nur vor dem Subjekt zu einer falschen informationsstrukturellen Repräsentation des Satzes. Basierend auf den Ergebnissen der Arbeit und dem postulierten Topik-Default Ansatz wird in der Arbeit abschließend ein Erwerbsmodell für das Verstehen von Sätzen mit der Fokuspartikel nur entworfen und diskutiert.
Output statt Input
(2010)
Die in der Fachdidaktik Informatik im Zusammenhang mit den Bildungsstandards seit Jahren diskutierte Outputorientierung wird mittelfristig auch für die Hochschullehre verbindlich. Diese Änderung kann als Chance aufgefasst werden, aktuellen Problemen der Informatiklehre gezielt entgegenzuwirken. Basierend auf der Theorie des Constructive Alignment wird vorgeschlagen, im Zusammenhang mit der Outputorientierung eine Abstimmung von intendierter Kompetenz, Lernaktivität und Prüfung vorzunehmen. Zusätzlich profitieren Lehramtsstudenten von den im eigenen Lernprozess erworbenen Erfahrungen im Umgang mit Kompetenzen: wie diese formuliert, erarbeitet und geprüft werden. Anforderungen an die Formulierung von Kompetenzen werden untersucht, mit Beispielen belegt und Möglichkeiten zur Klassifizierung angeregt. Ein Austausch in den Fachbereichen und Fachdidaktiken über die individuell festgelegten Kompetenzen wird vorgeschlagen, um die hochschuldidaktische Diskussion zu bereichern.
Pseudo
(2010)
Pseudo ist eine auf Pseudocode basierende Programmiersprache, welche in der akademischen Lehre zum Einsatz kommen und hier die Vermittlung und Untersuchung von Algorithmen und Datenstrukturen unterstützen soll. Dieser Beitrag geht auf die Besonderheiten der Sprache sowie mögliche didaktische Szenarien ein.
Projektmanagement-Kompetenzen werden von Unternehmen unterschiedlichster Branchen mit wachsender Priorität betrachtet und eingefordert. Als Beitrag zu einer kompetenzorientierten Ausbildung werden in diesem Paper interdisziplinäre Studienmodule als Bestandteil des Wirtschaftsinformatik-Studiums vorgestellt. Zielsetzung der Studienmodule ist die Befähigung der Studierenden, konkrete Projekte unter Nutzung von standardisierten Werkzeugen und Methoden nach dem IPMA-Standard planen und durchführen zu können.
Was ist eine kreative Leistung von Studierenden? Dies ist die Ausgangsfrage, wenn Lehre kreativitätsförderlicher als bislang gestaltet werden soll. In diesem Beitrag wird ein Modell zur Förderung von Kreativität in der Hochschullehre vorgestellt und mit einem Beispiel verdeutlicht. Es wird die veränderte Konzeption der Vorlesung Informatik & Gesellschaft illustriert: Studierende hatten die Aufgabe, eine „e-Infrastruktur für die Universität NeuDoBoDu“ zu entwickeln. Hierzu werden die Ergebnisse der Evaluation und Erfahrungen erläutert.
Die Magisterarbeit beschäftigt sich mit der politischen Förderung der geringfügigen Beschäftigung sowie der Inanspruchnahme haushaltsnaher Dienstleistungen und deren Bedeutung für eine gleichstellungsorientierte Familien- und Arbeitsmarktpolitik. Als Ausgangspunkt wird die Frage gestellt, ob geringfügige Beschäftigung und haushaltsnahe Dienstleistungen einen Arbeitsmarkt für Frauen im Niedriglohnsektor schaffen oder ob sie eine Perspektive zur besseren Vereinbarkeit von Erwerbsarbeit und Carearbeit bieten. Dazu wird die Perspektive der Beschäftigten in sogenannten Minijobs als auch der NutzerInnen haushaltsnaher Dienstleistungen analysiert. Als theoretischer Rahmen liegt der Arbeit die These der geschlechterkritischen, vergleichenden Wohlfahrtsstaatforschung zugrunde, dass Policies familialisierende und defamilialisierende Wirkungen haben können. Auf Grundlage dieses Rahmens werden zwei Gesetze und deren gleichstellungspolitische Wirkung analysiert (Familienleistungsgesetz und 2. Gesetz für moderne Dienstleistungen am Arbeitsmarkt – Hartz II). Die Arbeit gelangt zu dem Ergebnis, dass trotz der engen Verflechtung der beiden Politikfelder Arbeitsmarkt- und Familienpolitik ein Mismatch zwischen den analysierten Gesetzen besteht. Insbesondere hinsichtlich der geringfügigen Beschäftigung gelangt die Arbeit aus einer gleichstellungspolitischen Perspektive zu dem Urteil, dass sie sich am modernisierten Ernährermodell orientiert und Frauen auf die Rolle als Zuverdienerin festlegt. Auf diese Weise werden Anreize für eine geschlechterspezifische Arbeitsteilung gelegt.
Business process management aims at capturing, understanding, and improving work in organizations. The central artifacts are process models, which serve different purposes. Detailed process models are used to analyze concrete working procedures, while high-level models show, for instance, handovers between departments. To provide different views on process models, business process model abstraction has emerged. While several approaches have been proposed, a number of abstraction use case that are both relevant for industry and scientifically challenging are yet to be addressed. In this paper we systematically develop, classify, and consolidate different use cases for business process model abstraction. The reported work is based on a study with BPM users in the health insurance sector and validated with a BPM consultancy company and a large BPM vendor. The identified fifteen abstraction use cases reflect the industry demand. The related work on business process model abstraction is evaluated against the use cases, which leads to a research agenda.
Der Einfluss der Dynamik auf die stratosphärische Ozonvariabilität über der Arktis im Frühwinter
(2010)
Der frühwinterliche Ozongehalt ist ein Indikator für den Ozongehalt im Spätwinter/Frühjahr. Jedoch weist dieser aufgrund von Absinkprozessen, chemisch bedingten Ozonabbau und Wellenaktivität von Jahr zu Jahr starke Schwankungen auf. Die vorliegende Arbeit zeigt, dass diese Variabilität weitestgehend auf dynamische Prozesse während der Wirbelbildungsphase des arktischen Polarwirbels zurückgeht. Ferner wird der bisher noch ausstehende Zusammenhang zwischen dem früh- und spätwinterlichen Ozongehalt bezüglich Dynamik und Chemie aufgezeigt. Für die Untersuchung des Zusammenhangs zwischen der im Polarwirbel eingeschlossenen Luftmassenzusammensetzung und Ozonmenge wurden Beobachtungsdaten von Satellitenmessinstrumenten und Ozonsonden sowie Modellsimulationen des Lagrangschen Chemie/Transportmodells ATLAS verwandt. Die über die Fläche (45–75°N) und Zeit (August-November) gemittelte Vertikalkomponente des Eliassen-Palm-Flussvektors durch die 100hPa-Fläche zeigt eine Verbindung zwischen der frühwinterlichen wirbelinneren Luftmassenzusammensetzung und der Wirbelbildungsphase auf. Diese ist jedoch nur für die untere Stratosphäre gültig, da die Vertikalkomponente die sich innerhalb der Stratosphäre ändernden Wellenausbreitungsbedingungen nicht erfasst. Für eine verbesserte Höhendarstellung des Signals wurde eine neue integrale auf der Wellenamplitude und dem Charney-Drazin-Kriterium basierende Größe definiert. Diese neue Größe verbindet die Wellenaktivität während der Wirbelbildungsphase sowohl mit der Luftmassenzusammensetzung im Polarwirbel als auch mit der Ozonverteilung über die Breite. Eine verstärkte Wellenaktivität führt zu mehr Luft aus niedrigeren ozonreichen Breiten im Polarwirbel. Aber im Herbst und Frühwinter zerstören chemische Prozesse, die das Ozon ins Gleichgewicht bringen, die interannuale wirbelinnere Ozonvariablität, die durch dynamische Prozesse während der arktischen Polarwirbelbildungsphase hervorgerufen wird. Eine Analyse in Hinblick auf den Fortbestand einer dynamisch induzierten Ozonanomalie bis in den Mittwinter ermöglicht eine Abschätzung des Einflusses dieser dynamischen Prozesse auf den arktischen Ozongehalt. Zu diesem Zweck wurden für den Winter 1999–2000 Modellläufe mit dem Lagrangesche Chemie/Transportmodell ATLAS gerechnet, die detaillierte Informationen über den Erhalt der künstlichen Ozonvariabilität hinsichtlich Zeit, Höhe und Breite liefern. Zusammengefasst, besteht die dynamisch induzierte Ozonvariabilität während der Wirbelbildungsphase länger im Inneren als im Äußeren des Polarwirbels und verliert oberhalb von 750K potentieller Temperatur ihre signifikante Wirkung auf die mittwinterliche Ozonvariabilität. In darunterliegenden Höhenbereichen ist der Anteil an der ursprünglichen Störung groß, bis zu 90% auf der 450K. Innerhalb dieses Höhenbereiches üben die dynamischen Prozesse während der Wirbelbildungsphase einen entscheidenden Einfluss auf den Ozongehalt im Mittwinter aus.
Gegenstand dieser Arbeit ist die Konzeption, Entwicklung und exemplarische Implementierung eines generischen Verfahrens zur Erfassung, Verarbeitung, Auswertung und kartographischen Visualisierung urbaner Strukturen im altweltlichen Trockengürtel mittels hochauflösender operationeller Fernerkundungsdaten. Das Verfahren wird am Beispiel der jemenitischen Hauptstadt Sanaa einer Vertreterin des Typus der Orientalischen Stadt angewandt und evaluiert. Das zu entwickelnde Verfahren soll auf Standardverfahren und Systemen der raumbezogenen Informationsverarbeitung basieren und in seinen wesentlichen Prozessschritten automatisiert werden können. Daten von hochauflösenden operationellen Fernerkundungssystemen (wie z.B. QuickBird, Ikonos u. a.) erlauben die Erkennung und Kartierung urbaner Objekte, wie Gebäude, Straßen und sogar Autos. Die mit ihnen erstellten Karten und den daraus gewonnenen Informationen können zur Erfassung von Urbanisierungsprozessen (Stadt- und Bevölkerungswachstum) herangezogen werden. Sie werden auch zur Generierung von 3D-Stadtmodellen genutzt. Diese dienen z.B. der Visualisierung für touristische Anwendungen, für die Stadtplanung, für Lärmanalysen oder für die Standortplanung von Mobilfunkantennen. Bei dem in dieser Arbeit erzeugten 3D-Visualisierung wurden jedoch keine Gebäudedetails erfasst. Entscheidend war vielmehr die Wiedergabe der Siedlungsstruktur, die im Vorhandensein und in der Anordnung der Gebäude liegt. In dieser Arbeit wurden Daten des Satellitensensors Quickbird von 2005 verwendet. Sie zeigen einen Ausschnitt der Stadt Sanaa in Jemen. Die Fernerkundungsdaten wurden durch andere Daten, u.a. auch Geländedaten, ergänzt und verifiziert. Das ausgearbeitete Verfahren besteht aus der Klassifikation der Satellitenbild-aufnahme, die u.a. pixelbezogen und für jede Klasse einzeln (pixelbezogene Klassifikation auf Klassenebene) durchgeführt wurde. Zusätzlich fand eine visuelle Interpretation der Satellitenbildaufnahme statt, bei der einzelne Flächen und die Straßen digitalisiert und die Objekte mit Symbolen gekennzeichnet wurden. Die aus beiden Verfahren erstellten Stadtkarten wurden zu einer fusioniert. Durch die Kombination der Ergebnisse werden die Vorteile beider Karten in einer vereint und ihre jeweiligen Schwächen beseitigt bzw. minimiert. Die digitale Erfassung der Konturlinien auf der Orthophotomap von Sanaa erlaubte die Erstellung eines Digitalen Geländemodells, das der dreidimensionalen Darstellung des Altstadtbereichs von Sanaa diente. Die 3D-Visualisierung wurde sowohl von den pixelbezogenen Klassifikationsergebnissen auf Klassenebene als auch von der digitalen Erfassung der Objekte erstellt. Die Ergebnisse beider Visualisierungen wurden im Anschluss in einer Stadtkarte vereint. Bei allen Klassifikationsverfahren wurden die asphaltierten Straßen, die Vegetation und einzeln stehende Gebäude sehr gut erfasst. Die Klassifikation der Altstadt gestaltete sich aufgrund der dort für die Klassifikation herrschenden ungünstigen Bedingungen am problematischsten. Die insgesamt besten Ergebnisse mit den höchsten Genauigkeitswerten wurden bei der pixelbezogenen Klassifikation auf Klassenebene erzielt. Dadurch, dass jede Klasse einzeln klassifiziert wurde, konnte die zu einer Klasse gehörende Fläche besser erfasst und nachbearbeitet werden. Die Datenmenge wurde reduziert, die Bearbeitungszeit somit kürzer und die Speicherkapazität geringer. Die Auswertung bzw. visuelle Validierung der pixel-bezogenen Klassifikationsergebnisse auf Klassenebene mit dem Originalsatelliten-bild gestaltete sich einfacher und erfolgte genauer als bei den anderen durch-geführten Klassifikationsverfahren. Außerdem war es durch die alleinige Erfassung der Klasse Gebäude möglich, eine 3D-Visualisierung zu erzeugen. Bei einem Vergleich der erstellten Stadtkarten ergibt sich, dass die durch die visuelle Interpretation erstellte Karte mehr Informationen enthält. Die von den pixelbezogenen Klassifikationsergebnissen auf Klassenebene erstellte Karte ist aber weniger arbeits- und zeitaufwendig zu erzeugen. Zudem arbeitet sie die Struktur einer orientalischen Stadt mit den wesentlichen Merkmalen besser heraus. Durch die auf Basis der 2D-Stadtkarten erstellte 3D-Visualisierung wird ein anderer räumlicher Eindruck vermittelt und bestimmte Elemente einer orientalischen Stadt deutlich gemacht. Dazu zählen die sich in der Altstadt befindenden Sackgassen und die ehemalige Stadtmauer. Auch die für Sanaa typischen Hochhäuser werden in der 3D-Visualisierung erkannt. Insgesamt wurde in der Arbeit ein generisches Verfahren entwickelt, dass mit geringen Modifikationen auch auf andere städtische Räume des Typus orientalische Stadt angewendet werden kann.
The programmable network envisioned in the 1990s within standardization and research for the Intelligent Network is currently coming into reality using IPbased Next Generation Networks (NGN) and applying Service-Oriented Architecture (SOA) principles for service creation, execution, and hosting. SOA is the foundation for both next-generation telecommunications and middleware architectures, which are rapidly converging on top of commodity transport services. Services such as triple/quadruple play, multimedia messaging, and presence are enabled by the emerging service-oriented IPMultimedia Subsystem (IMS), and allow telecommunications service providers to maintain, if not improve, their position in the marketplace. SOA becomes the de facto standard in next-generation middleware systems as the system model of choice to interconnect service consumers and providers within and between enterprises. We leverage previous research activities in overlay networking technologies along with recent advances in network abstraction, service exposure, and service creation to develop a paradigm for a service environment providing converged Internet and Telecommunications services that we call Service Broker. Such a Service Broker provides mechanisms to combine and mediate between different service paradigms from the two domains Internet/WWW and telecommunications. Furthermore, it enables the composition of services across these domains and is capable of defining and applying temporal constraints during creation and execution time. By adding network-awareness into the service fabric, such a Service Broker may also act as a next generation network-to-service element allowing the composition of crossdomain and cross-layer network and service resources. The contribution of this research is threefold: first, we analyze and classify principles and technologies from Information Technologies (IT) and telecommunications to identify and discuss issues allowing cross-domain composition in a converging service layer. Second, we discuss service composition methods allowing the creation of converged services on an abstract level; in particular, we present a formalized method for model-checking of such compositions. Finally, we propose a Service Broker architecture converging Internet and Telecom services. This environment enables cross-domain feature interaction in services through formalized obligation policies acting as constraints during service discovery, creation, and execution time.
Der SC Motor/FC Carl Zeiss Jena war seit Ende der 50-er Jahre bis in die 80-er Jahre hinein ein vom DFV der DDR und vom DTSB immer wieder benannter und bestätigter Schwerpunktclub innerhalb der sogenannten zivilen Clubs. Der SC Turbine/FC Rot-Weiß Erfurt konnte diesen Status innerhalb des Fußballverbands dagegen nie erreichen. Die zentrale Frage dieser Dissertation nach den spezifischen Bedingungsgefügen des zivilen Schwerpunktclubs FC Carl Zeiss Jena (und Vorgänger) und des zivilen Nichtschwerpunktclubs FC Rot-Weiß Erfurt (und Vorgänger) im DDR-Fußballsystem ergab sich aus dieser unterschiedlichen Privilegierung und den ungleichen Erfolgsbilanzen dieser beiden Clubs. Die Hypothese der komparativ angelegten Fallstudie vermutete einen unmittelbaren Zusammenhang zwischen diesen deutlich sichtbaren Erfolgsunterschieden der beiden Mannschaften in der DDR und den erfolgten Schwerpunktfestlegungen. Zusätzlich konnte vermutet werden, dass ein beträchtlicher Anteil an den Jenaer Erfolgen auf die besonders starke Unterstützung des wirtschaftlich mächtigen VEB Carl Zeiss Jena zurückzuführen war. Um diesen Zusammenhängen nachzugehen, fragte der Autor nach den konkreten Bevorzugungen des Jenaer Schwerpunktclubs und den Benachteiligungen des Erfurter Nichtschwerpunktclubs und nach den spezifischen Bedingungen und Handlungsspielräumen der beiden Thüringer Mannschaften in der DDR. Daraus ergaben sich eine Reihe von detaillierten, auf einen Vergleich der verschiedenen Bedingungen in Erfurt und in Jena hin orientierte, Fragen, welche in der vorliegenden Untersuchung detailliert beantwortet werden: Wie sah die besondere Förderung des DFV bzw. des DTSB für einen Schwerpunktclub wie Jena überhaupt aus? Wer nahm Einfluss auf die Clubs, von wem waren diese abhängig, wer förderte sie durch welche Leistungen? Wie wurden diese Beschlüsse vor Ort umgesetzt? Wer waren die Trägerbetriebe und in welchem Maße und wodurch engagierten sich diese für den Fußball in Erfurt und Jena? Wie kamen die häufigen Wechsel der besten Spieler Erfurts nach Jena zustande? Warum war die Richtung dieser Wechsel insgesamt einseitig in Richtung Jena? Welche finanziellen, materiellen und sozialen Bedingungen konnten den Spielern in Jena und Erfurt geboten werden? Die vorliegenden Ergebnisse dieser erstmals für die zivilen Clubs auf der Mikroperspektive angelegten systematischen Untersuchung bestätigen das bereits von Hans Joachim Teichler als grundlegend für den DDR-Fußball beschriebene Konfliktmuster des „Fußball-Lokalpatriotismus versus Parteiräson“. Eigenmächtige Handlungen vieler Betriebsleiter und zahlreicher Partei- und Gewerkschaftsfunktionäre in den Trägerbetrieben konnten beispielsweise in Erfurt bei der eigenmächtigen Erhöhung der Aufnahmezahlen von Fußballern an die KJS Erfurt oder in Jena bei der Anstellung der Fußballer im Zeisswerk nachgewiesen werden. Das am sowjetischen Vorbild orientierte Sportsystem der DDR mit seinen engen Bindungen an die Trägerbetriebe provozierte geradezu verdeckte Zuwendungen der Betriebe, die über die Clubs an die Spieler weitergereicht wurden. Für die zentralen Instanzen des DDR-Fußballs war das ein Dauerproblem, weil sich damit ein Großteil der Vorgänge vor Ort der Steuerung entzog. Wie in der vorliegenden Arbeit beschrieben wird, war genau dies jedoch der Schlüssel für den Erfolg des SC Motor/FC Carl Zeiss Jena vom Ende der 50-er bis in den Anfang der 80-er Jahre bzw. für den vergleichsweisen Misserfolg des SC Turbine/FC Rot-Weiß Erfurt im gleichen Zeitraum. Dass letztlich die finanziellen, materiellen und sozialen Möglichkeiten die entscheidende Gründe für die Spieler waren, zu einem anderen Club oder einer BSG zu wechseln, mithin demnach Marktmechanismen, und hier in erster Linie der Grund für die Stärke des SC Motor/FC Carl Zeiss Jena zu suchen ist, ist eine zentrale Erkenntnis dieser Arbeit.
Crustal deformation can be the result of volcanic and tectonic activity such as fault dislocation and magma intrusion. The crustal deformation may precede and/or succeed the earthquake occurrence and eruption. Mitigating the associated hazard, continuous monitoring of the crustal deformation accordingly has become an important task for geo-observatories and fast response systems. Due to highly non-linear behavior of the crustal deformation fields in time and space, which are not always measurable using conventional geodetic methods (e.g., Leveling), innovative techniques of monitoring and analysis are required. In this thesis I describe novel methods to improve the ability for precise and accurate mapping the spatiotemporal surface deformation field using multi acquisitions of satellite radar data. Furthermore, to better understand the source of such spatiotemporal deformation fields, I present novel static and time dependent model inversion approaches. Almost any interferograms include areas where the signal decorrelates and is distorted by atmospheric delay. In this thesis I detail new analysis methods to reduce the limitations of conventional InSAR, by combining the benefits of advanced InSAR methods such as the permanent scatterer InSAR (PSI) and the small baseline subsets (SBAS) with a wavelet based data filtering scheme. This novel InSAR time series methodology is applied, for instance, to monitor the non-linear deformation processes at Hawaii Island. The radar phase change at Hawaii is found to be due to intrusions, eruptions, earthquakes and flank movement processes and superimposed by significant environmental artifacts (e.g., atmospheric). The deformation field, I obtained using the new InSAR analysis method, is in good agreement with continuous GPS data. This provides an accurate spatiotemporal deformation field at Hawaii, which allows time dependent source modeling. Conventional source modeling methods usually deal with static deformation field, while retrieving the dynamics of the source requires more sophisticated time dependent optimization approaches. This problem I address by combining Monte Carlo based optimization approaches with a Kalman Filter, which provides the model parameters of the deformation source consistent in time. I found there are numerous deformation sources at Hawaii Island which are spatiotemporally interacting, such as volcano inflation is associated to changes in the rifting behavior, and temporally linked to silent earthquakes. I applied these new methods to other tectonic and volcanic terrains, most of which revealing the importance of associated or coupled deformation sources. The findings are 1) the relation between deep and shallow hydrothermal and magmatic sources underneath the Campi Flegrei volcano, 2) gravity-driven deformation at Damavand volcano, 3) fault interaction associated with the 2010 Haiti earthquake, 4) independent block wise flank motion at the Hilina Fault system, Kilauea, and 5) interaction between salt diapir and the 2005 Qeshm earthquake in southern Iran. This thesis, written in cumulative form including 9 manuscripts published or under review in peer reviewed journals, improves the techniques for InSAR time series analysis and source modeling and shows the mutual dependence between adjacent deformation sources. These findings allow more realistic estimation of the hazard associated with complex volcanic and tectonic systems.
Die automatische Informationsextraktion (IE) aus unstrukturierten Texten ermöglicht völlig neue Wege, auf relevante Informationen zuzugreifen und deren Inhalte zu analysieren, die weit über bisherige Verfahren zur Stichwort-basierten Dokumentsuche hinausgehen. Die Entwicklung von Programmen zur Extraktion von maschinenlesbaren Daten aus Texten erfordert jedoch nach wie vor die Entwicklung von domänenspezifischen Extraktionsprogrammen. Insbesondere im Bereich der Enterprise Search (der Informationssuche im Unternehmensumfeld), in dem eine große Menge von heterogenen Dokumenttypen existiert, ist es oft notwendig ad-hoc Programm-module zur Extraktion von geschäftsrelevanten Entitäten zu entwickeln, die mit generischen Modulen in monolithischen IE-Systemen kombiniert werden. Dieser Umstand ist insbesondere kritisch, da potentiell für jeden einzelnen Anwendungsfall ein von Grund auf neues IE-System entwickelt werden muss. Die vorliegende Dissertation untersucht die effiziente Entwicklung und Ausführung von IE-Systemen im Kontext der Enterprise Search und effektive Methoden zur Ausnutzung bekannter strukturierter Daten im Unternehmenskontext für die Extraktion und Identifikation von geschäftsrelevanten Entitäten in Doku-menten. Grundlage der Arbeit ist eine neuartige Plattform zur Komposition von IE-Systemen auf Basis der Beschreibung des Datenflusses zwischen generischen und anwendungsspezifischen IE-Modulen. Die Plattform unterstützt insbesondere die Entwicklung und Wiederverwendung von generischen IE-Modulen und zeichnet sich durch eine höhere Flexibilität und Ausdrucksmächtigkeit im Vergleich zu vorherigen Methoden aus. Ein in der Dissertation entwickeltes Verfahren zur Dokumentverarbeitung interpretiert den Daten-austausch zwischen IE-Modulen als Datenströme und ermöglicht damit eine weitgehende Parallelisierung von einzelnen Modulen. Die autonome Ausführung der Module führt zu einer wesentlichen Beschleu-nigung der Verarbeitung von Einzeldokumenten und verbesserten Antwortzeiten, z. B. für Extraktions-dienste. Bisherige Ansätze untersuchen lediglich die Steigerung des durchschnittlichen Dokumenten-durchsatzes durch verteilte Ausführung von Instanzen eines IE-Systems. Die Informationsextraktion im Kontext der Enterprise Search unterscheidet sich z. B. von der Extraktion aus dem World Wide Web dadurch, dass in der Regel strukturierte Referenzdaten z. B. in Form von Unternehmensdatenbanken oder Terminologien zur Verfügung stehen, die oft auch die Beziehungen von Entitäten beschreiben. Entitäten im Unternehmensumfeld haben weiterhin bestimmte Charakteristiken: Eine Klasse von relevanten Entitäten folgt bestimmten Bildungsvorschriften, die nicht immer bekannt sind, auf die aber mit Hilfe von bekannten Beispielentitäten geschlossen werden kann, so dass unbekannte Entitäten extrahiert werden können. Die Bezeichner der anderen Klasse von Entitäten haben eher umschreibenden Charakter. Die korrespondierenden Umschreibungen in Texten können variieren, wodurch eine Identifikation derartiger Entitäten oft erschwert wird. Zur effizienteren Entwicklung von IE-Systemen wird in der Dissertation ein Verfahren untersucht, das alleine anhand von Beispielentitäten effektive Reguläre Ausdrücke zur Extraktion von unbekannten Entitäten erlernt und damit den manuellen Aufwand in derartigen Anwendungsfällen minimiert. Verschiedene Generalisierungs- und Spezialisierungsheuristiken erkennen Muster auf verschiedenen Abstraktionsebenen und schaffen dadurch einen Ausgleich zwischen Genauigkeit und Vollständigkeit bei der Extraktion. Bekannte Regellernverfahren im Bereich der Informationsextraktion unterstützen die beschriebenen Problemstellungen nicht, sondern benötigen einen (annotierten) Dokumentenkorpus. Eine Methode zur Identifikation von Entitäten, die durch Graph-strukturierte Referenzdaten vordefiniert sind, wird als dritter Schwerpunkt untersucht. Es werden Verfahren konzipiert, welche über einen exakten Zeichenkettenvergleich zwischen Text und Referenzdatensatz hinausgehen und Teilübereinstimmungen und Beziehungen zwischen Entitäten zur Identifikation und Disambiguierung heranziehen. Das in der Arbeit vorgestellte Verfahren ist bisherigen Ansätzen hinsichtlich der Genauigkeit und Vollständigkeit bei der Identifikation überlegen.
Die Qualität von Nutzpflanzen ist von zahlreichen Einflussfaktoren wie beispielsweise Lagerbedingungen und Sorteneigenschaften abhängig. Um Qualitätsmängel zu minimieren und Absatzchancen von Nutzpflanzen zu steigern sind umfangreiche Analysen hinsichtlich ihrer stofflichen Zusammensetzung notwendig. Chromatographische Techniken gekoppelt an ein Massenspektrometer und die Kernspinresonanzspektroskopie wurden dafür bislang verwendet. In der vorliegenden Arbeit wurde ein Gaschromatograph an ein Flugzeitmassenspektrometer (GC-TOF-MS) gekoppelt, um physiologische Prozesse bzw. Eigenschaften (die Schwarzfleckigkeit, die Chipsbräunung, das Physiologische Alter und die Keimhemmung) von Nutzpflanzen aufzuklären. Als Pflanzenmodell wurde dafür die Kartoffelknolle verwendet. Dazu wurden neue analytische Lösungsansätze entwickelt, die eine zielgerichtete Auswertung einer Vielzahl von Proben, die Etablierung einer umfangreichen Referenzspektrenbibliothek und die sichere Archivierung aller experimentellen Daten umfassen. Das Verfahren der Probenvorbereitung wurde soweit modifiziert, dass gering konzentrierte Substanzen mittels GC-TOF-MS analysiert werden können. Dadurch wurde das durch die Probenvorbereitung limitierte Substanzspektrum erweitert. Anhand dieser Lösungsansätze wurden physiologisch relevante Stoffwechselprodukte identifiziert, welche indikativ (klassifizierend) bzw. prädiktiv (vorhersagend) für die physiologischen Prozesse sind. Für die Schwarzfleckigkeitsneigung und die Chipseignung wurde jeweils ein biochemisches Modell zur Vorhersage dieser Prozesse aufgestellt und auf eine Züchtungspopulation übertragen. Ferner wurden für die Schwarzfleckigkeit Stoffwechselprodukte des Respirationsstoffwechsels identifiziert sowie Aminosäuren, Glycerollipide und Phenylpropanoide für das Physiologische Alter als relevant erachtet. Das physiologische Altern konnte durch die Anwendung höherer Temperaturen beschleunigt werden. Durch Anwendung von Keimhemmern (Kümmelöl, Chlorpropham) wurde eine Verzögerung des physiologischen Alterns beobachtet. Die Applikation von Kümmelöl erwies sich dabei als besonders vorteilhaft. Kümmelöl behandelte Knollen wiesen im Vergleich zu unbehandelten Knollen nur Veränderungen im Aminosäure-, Zucker- und Sekundärstoffwechsel auf. Chlorpropham behandelte Knollen wiesen einen ähnlichen Stoffwechsel wie die unbehandelten Knollen auf. Für die bislang noch nicht identifizierten Stoffwechselprodukte wurden im Rahmen dieser Arbeit das Verfahren der „gezielten An-/Abreicherung“, der „gepaarten NMR/GC-TOF-MS Analyse“ und das „Entscheidungsbaumverfahren“ entwickelt. Diese ermöglichen eine Klassifizierung von GC-MS Signalen im Hinblick auf ihre chemische Funktionalität. Das Verfahren der gekoppelten NMR/GC-TOF-MS Analyse erwies sich dabei als besonders erfolgversprechend, da es eine Aufklärung bislang unbekannter gaschromatographischer Signale ermöglicht. In der vorliegenden Arbeit wurden neue Stoffwechselprodukte in der Kartoffelknolle identifiziert, wodurch ein wertvoller Beitrag zur Analytik der Metabolomik geleistet wurde.
Die Gasversorgung Europas
(2010)
Die Abhängigkeit der EU von Russlands Gaslieferungen sowie die Zuverlässigkeit des Transitlandes Ukraine ist hochgradig umstritten. Für den Politikwissenschaftler Jacopo Pepe, zeigen sich dabei jedoch keine existentiellen Bedrohungen für die Versorgungssicherheit Europas, sondern konstruierte Diskurse. Er argumentiert, dass es sich hier nicht um geopolitisches sondern um ein ökonomisches Problem handelt. Dieses wurzelt in dem ukrainisch-russisch Gasgeschäft der 1990er Jahre. Geopolitische Fragen und belastete politischen Beziehungen haben die Krise zugespitzt und die russische Reaktion verschärft. Erst so konnte das Umfeld für einen „Securitization“ Diskurs entstehen, der mit geostrategischen Zielen der USA übereinstimmt. Die Lösung muss sowohl (geo)ökonomisch als auch geopolitisch erfolgen: Geoökonomisch, durch die Gründung eines europäisch-russisch-ukrainischen Konsortium für die Verwaltung des International Transport System der Ukraine; geopolitisch durch eine kooperative Neuvermessung des Verhältnisses der EU mit Russland. Nur dadurch kann ein erneutes Scheitern der Gasversorgung Europas verhindert werden.
Mit Seitenkettenpolystyrenen wurde ein neues Synthesekonzept für phosphoreszente polymere LED-Materialien aufgestellt und experimentell verifiziert. Zunächst erfolgten auf Grundlage strukturell einfacher Verbindungen Untersuchungen zum Einfluss von Spacern zwischen aktiven Seitengruppen und dem Polystyrenrückgrat. Es wurden Synthesemethoden für die Monomere etabliert, durch die aktive Elemente - Elektronen- und Lochleiter - mit und ohne diesen Spacer zugänglich sind. Durch Kombination dieser Monomere waren unter Hinzunahme von polymerisierbaren Iridium-Komplexen in unterschiedlicher Emissionswellenlänge statistische Terpolymere darstellbar. Es wurde gezeigt, dass die Realisierung bestimmter Verhältnisse zwischen Loch-, Elektronenleiter und Triplettemitter in ausreichender Molmasse möglich ist. Die Glasstufen der Polymere zeigten eine deutliche Strukturabhängigkeit. Auf die Lage der Grenzorbitale übten die Spacer nahezu keinen Einfluss aus. Die unterschiedlichen Makromoleküle kamen in polymeren Licht emittierenden Dioden (PLEDs) zum Einsatz, wobei ein deutlicher Einfluss der Spacereinheiten auf die Leistungscharakteristik der PLEDs festzustellen war: Sowohl Effizienz, Leuchtdichte wie auch Stromdichte waren durch den Einsatz der kompakten Makromoleküle ohne Spacer deutlich höher. Diese Beobachtungen begründeten sich hauptsächlich in der Verwendung der aliphatischen Spacer, die den Anteil im Polymer erhöhten, der keine Konjugation und damit elektrisch isolierende Eigenschaften besaß. Diese Schlussfolgerungen waren mit allen drei realisierten Emissionsfarben grün, rot und blau verifizierbar. Die besten Messergebnisse erzielte eine PLED aus einem grün emittierenden und spacerlosen Terpolymer mit einer Stromeffizienz von etwa 28 cd A-1 (bei 6 V) und einer Leuchtdichte von 3200 cd m-2 (bei 8 V). Ausgehend von obigen Ergebnissen konnten neue Matrixmaterialien aus dem Bereich verdampfbarer Moleküle geringer Molmasse in das Polystyrenseitenkettenkonzept integriert werden. Es wurden Strukturvariationen sowohl von loch- wie auch von elektronenleitenden Verbindungen als Homopolymere dargestellt und als molekular dotierte Systeme in PLEDs untersucht. Sieben verschiedene lochleitende Polymere mit Triarylamin-Grundkörper und drei elektronendefizitäre Polymere auf der Basis von Phenylbenzimidazol konnten erfolgreich in den Polymeransatz integriert werden. Spektroskopische und elektrochemische Untersuchungen zeigten kaum eine Veränderung der Charakteristika zwischen verdampfbaren Molekülen und den dargestellten Makromolekülen. Diese ladungstransportierenden Makro-moleküle wurden als polymere Matrizes molekular dotiert und lösungsbasiert zu Einschicht-PLEDs verarbeitet. Als aussichtsreichstes Lochleiterpolymer dieser Reihe, mit einer Strom-effizenz von etwa 33 cd A-1 (bei 8 V) und einer Leuchtdichte von 6700 cd m-2 (bei 10 V), stellte sich ein Triarylaminderivat mit Carbazolsubstituenten heraus. Als geeignetstes Matrixmaterial für die Elektronenleitung wurde ein meta-verknüpftes Di-Phenylbenzimidazol ausfindig gemacht, das in der PLED eine Stromeffizienz von etwa 20 cd A-1 (bei 8 V) und eine Leuchtdichte von 7100 cd m-2 (bei 10 V) erzielte. Anschließend wurden die geeignetsten Monomere zu Copolymeren kombiniert: Die lochleitende Einheit bildete ein carbazolylsubstituiertes Triarylamin und die elektronen-leitende Einheit war ein disubstituiertes Phenylbenzimidazol. Dieses Copolymer diente im Folgenden dazu, PLEDs zu realisieren und die Leistungsdaten mit denen eines Homopolymer-blends zu vergleichen, wobei der Blend die bessere Leistungscharakteristik zeigte. Mit dem Homopolymerblend waren Bauteileffizienzen von annähernd 30 cd A-1 (bei 10 V) und Leuchtdichten von 6800 cd m-2 neben einer Verringerung der Einsatzspannung realisierbar. Für die abschließende Darstellung bipolarer Blockcopolymere wurde auf die Nitroxid-vermittelte Polymerisation zurückgegriffen. Mit dieser Technik waren kontrollierte radikalische Polymersiationen mit ausgewählten Monomeren in unterschiedlichen Block-längen durchführbar. Diese Blockcopolymere kamen als molekular dotierte Matrizes in phosphoreszenten grün emittierenden PLEDs zum Einsatz. Die Bauteile wurden sowohl mit statistischen Copolymeren, wie auch mit Homopolymerblends in gleicher Zusammensetzung aber unterschiedlichem Polymerisationsgrad hinsichtlich der Leistungscharakteristik verglichen. Kernaussage dieser Untersuchungen ist, dass hochmolekulare Systeme eine bessere Leistungscharakteristik aufweisen als niedermolekulare Matrizes. Über Rasterkraft-mikroskopie konnte eine Phasenseparation in einem Größenbereich von etwa 10 nm für den hochmolekularen Homopolymerblend nachgewiesen werden. Für die Blockcopolymere war es nicht möglich eine Phasenseparation zu beobachten, was vorwiegend auf deren zu geringe Blocklänge zurückgeführt wurde.
Gesunde sowie qualitativ hochwertige Nahrungsmittel sind wichtige Voraussetzungen, um einerseits die Lebensmittelsicherheit entlang der Wertschöpfungskette (Wachstum, Verarbeitung, Lagerung und Transport) und andererseits einen vorbeugenden Verbraucherschutz zu gewährleisten. Die Belastung der Nahrung mit Rückständen jeglicher Art war in letzter Zeit häufig Mittelpunkt heftiger öffentlicher Diskussionen. Zahlreiche Untersuchungen haben gezeigt, dass unter bestimmten Bedingungen durch Pilze gebildete Giftstoffe, so genannte Mykotoxine, die Ernteprodukte belasten und es bei deren Verzehr durch Menschen oder Tiere zu Vergiftungen kommen kann. Die FAO schätzt, dass etwa 25% der Weltproduktion von Nahrungsmitteln mit Mykotoxinen kontaminiert und in 20% der Getreideernte der Europäischen Union messbare Konzentrationen an Mykotoxinen detektierbar sind. Damit die Lebensmittelsicherheit weiterhin gewährleistet bleibt, werden neben den Routinemethoden schnellere und zerstörungsfreie Methoden benötigt, um die Lebensmittel direkt vor Ort auf Schimmelpilze und deren Mykotoxine zu untersuchen. In dieser Arbeit wird das Potenzial von ausgewählten optisch-basierten spektroskopischen Methoden für die in-situ bzw. in-line Detektion von Schimmelpilzen sowie Mykotoxinen in Getreide(produkten) untersucht. Es werden Absorptions- und Reflexionsmethoden einerseits und Fluoreszenztechniken andererseits eingesetzt. Die spektroskopischen Methoden werden dabei auf Proben unterschiedlicher Komplexität angewandt - beginnend mit der Untersuchung der photophysikalischen Eigenschaften der reinen Mykotoxine in Lösung über künstlich mit verschiedenen Mykotoxinen kontaminierten Getreideproben bis hin zu mit Pilzen befallenem Getreide und hochveredelte Lebensmittel (Wein und Bier) als Proben höchster Komplexität.
Kinder erwerben Passivstrukturen später als die meisten anderen syntaktischen Strukturen. Die vorliegende Studie beschäftigt sich mit der Frage, ob dies auf informationsstrukturelle Faktoren zurückzuführen sein könnte. Probleme beim Erwerb von Passivsätzen wurden in vorhergehenden Studien unter anderem auf ihre geringe Inputfrequenz oder bestimmte syntaktische Charakteristika von Passivsätzen zurückgeführt. Jedoch konnte bisher keiner dieser Ansätze ihr spätes Erwerbsalter umfassend erklären. Während Aktivsätze, die kanonische, unmarkierte Satzstruktur im Deutschen, in jeglichem Diskurskontext verwendet werden können, werden Passivsätze fast ausschließlich dann verwendet, wenn der Patiens der beschriebenen Handlung schon vorerwähnt war und/ oder als Topik eines Satzes fungieren soll. Passivsätze sind also nicht in jedem Kontext informationsstrukturell adäquat. Kinder haben im Gegensatz zu Erwachsenen aufgrund ihrer geringeren syntaktischen Fähigkeiten Probleme, Sätze zu verarbeiten, die nicht in einem adäquaten Kontext stehen. Der Einfluss dieser Kontextbedingungen auf das Satzverständnis wurde in der vorliegenden Studie bei deutschsprachigen Kindern untersucht. Kindern zwischen 3;0 und 4;11 Jahren wurden Aktiv- oder Passivsätze präsentiert, denen informationsstrukturell adäquate, inadäquate oder neutrale Kontextsätze vorangingen. Wie erwartet verstanden die Kinder Aktivsätze besser als Passivsätze und 4-jährige Kinder zeigten bessere Leistungen als 3-jährige. Es gab Tendenzen, dass die 3-jährigen Kinder Passivsätze besser, aber Aktivsätze schlechter verstanden, wenn ihr Subjekt vorerwähnt wurde. Statistisch signifikante Kontexteffekte fanden sich jedoch im Gegensatz zu einer vergleichbaren Studie mit englischsprachigen Kindern (Gourley und Catlin, 1978) in keiner Testbedingung. Außerdem zeigte sich, dass die Kinder Passivsätze insgesamt besser und Aktivsätze insgesamt schlechter verstanden als englischsprachige Kinder in anderen Studien. Die Ergebnisse werden mit dem Competition Modell (Mac Whinney und Bates, 1987) und einer Sprachverarbeitungstheorie von Stromswold (2002) erklärt. Außerdem wird diskutiert, warum die deutschsprachigen Kinder in der vorliegenden Studie andere Sprachverständnisleistungen zeigten als englischsprachige Kinder.
This professorial dissertation thesis collects several empirical studies on tax distribution and tax reform in Germany. Chapter 2 deals with two studies on effective income taxation, based on representative micro data sets from tax statistics. The first study analyses the effective income taxation at the individual level, in particular with respect to the top incomes. It is based on an integrated micro data file of household survey data and income tax statistics, which captures the entire income distribution up to the very top. Despite substantial tax base erosion and reductions of top tax rates, the German personal income tax has remained effectively progressive. The distribution of the tax burden is highly concentrated and the German economic elite is still taxed relatively heavily, even though the effective tax rate for this group has significantly declined. The second study of Chapter 2 highlights the effective income taxation of functional income sources, such as labor income, business and capital income, etc. Using income tax micro data and microsimulation models, we allocate the individual income tax liability to the respective income sources, according to different apportionment schemes accounting for losses. We find that the choice of the apportionment scheme markedly affects the tax shares of income sources and implicit tax rates, in particular those of capital income. Income types without significant losses such as labor income or transfer incomes show higher tax shares and implicit tax rates if we account for losses. The opposite is true for capital income, in particular for income from renting and leasing. Chapter 3 presents two studies on business taxation, based on representative micro data sets from tax statistics and the microsimulation model BizTax. The first part provides a study on fundamental reform options for the German local business tax. We find that today’s high concentration of local business tax revenues on corporations with high profits decreases if the tax base is broadened by integrating more taxpayers and by including more elements of business value added. The reform scenarios with a broader tax base distribute the local business tax revenue per capita more equally across regional categories. The second study of Chapter 3 discusses the macroeconomic performance of business taxation against the background of corporate income. A comparison of the tax base reported in tax statistics with the macroeconomic corporate income from national accounts gives hints to considerable tax base erosion. The average implicit tax rate on corporate income was around 20 percent since 2001, and thus falling considerably short of statutory tax rates and effective tax rates discussed in the literature. For lack of detailed accounting data it is hard to give precise reasons for the presumptive tax base erosion. Chapter 4 deals with several assessment studies on the ecological tax reform implemented in Germany as of 1999. First, we describe the scientific, ideological, and political background of the ecological tax reform. Further, we present the main findings of a first systematic impact analysis. We employ two macroeconomic models, an econometric input-output model and a recursive-dynamic computable general equilibrium (CGE) model. Both models show that Germany’s ecological tax reform helps to reduce energy consumption and CO2 emissions without having a substantial adverse effect on overall economic growth. It could have a slightly positive effect on employment. The reform’s impact on the business sector and the effects of special provisions granted to agriculture and the goods and materials sectors are outlined in a further study. The special provisions avoid higher tax burdens on the energy-intensive production. However, they widely reduce the marginal tax rates and thus the incentives to energy saving. Though the reform of special provisions 2003 increased the overall tax burden of the energy-intensive industry, the enlarged eligibility for tax rebates neutralizes the ecologic incentives. Based on the Income and Consumption Survey of 2003, we have analyzed the distributional impact of the ecological tax reform. The increased energy taxes show a clear regressive impact relative to disposable income. Families with children face a higher tax burden relative to household income. The reduction of pension contributions and the automatic adjustment of social security transfers widely mitigate this regressive impact. Households with low income or with many children nevertheless bear a slight increase in tax burden. Refunding the eco tax revenue by an eco bonus would make the reform clearly progressive.
Bei der Entlassung von Mitarbeitern sind Interessenkonflikte vorprogrammiert. Gut begründete Positionen stehen sich bei diesen folgenreichen Personalentscheidungen oft unversöhnlich gegenüber. In den letzten Jahren waren vermehrt Kündigungen aufgrund von Bagatelldelikten in den Medien präsent. So wurde einer Kassiererin fristlos gekündigt, weil sie zwei Pfandbons unterschlagen haben sollte. Angesichts der Finanz- und Wirtschaftskrise, in der Banken Milliarden fehlinvestierten die Bankmanager jedoch kaum zur Rechenschaft gezogen wurden, verstärkte sich der Eindruck unbotmäßiger Härte und Ungerechtigkeit. Aber ist dieser Eindruck gerechtfertigt? Unterschiedliche Urteile der Instanzgerichte zu Bagatellkündigungen zeigen, dass im Arbeitsrecht nicht abschließend geklärt ist, wie in solchen Bagatellkündigungsfällen verfahren werden soll. Zudem stellt die Rechtskonformität einer Kündigung ohnehin kein abschließendes Kriterium dafür dar, ob sie auch aus ethischer Sicht gut ist. Das Ziel der Arbeit ist daher die Frage zu beantworten, wie Bagatellkündigungen moralisch zu bewerten sind. Ethisch relevante Aspekte werden zur Unterstützung von Personalentscheidungen in der Praxis identifiziert. Zunächst werden als Überblick die Ergebnisse einer Medienrecherche zu den Bagatellkündigungen dargestellt. Im ersten Untersuchungsschritt wird gefragt, warum eine Kündigung als Auflösung einer privaten Vertragsbeziehung rechtfertigungsbedürftig ist. An Praxisbeispielen wird dargestellt, welche Regelungen zum Kündigungsschutz bestehen und wie diese durch die Spezifika der Arbeitsbeziehung anhand ethischer Aspekte begründet werden. Bezugnehmend auf die Stakeholder-Sicht auf Wirtschaftsunternehmen und Überlegungen der Agenturtheorie wird gezeigt, dass die Beziehung im Arbeitskontext Spezifika aufweist, die übergebührliche Rechte und Pflichten begründen und auch in der psychologischen impliziten Vertragsbeziehung ihren Ausdruck finden. Es wird gezeigt, dass sich – insbesondere bei langjährigen Vertragsverhältnissen – ein prima-facie-Recht der Arbeitnehmer nicht gekündigt zu werden begründen lässt. Dieses Recht liegt im Status der Arbeitnehmer als rationalen moralfähigen Personen mit Anspruch auf Achtung ihrer Würde begründet. Aus der Personenhaftigkeit der Mitarbeiter entspringt der legitime Anspruch, rationale Gründe für Entscheidungen, welche sie betreffen, genannt zu bekommen. Es wird argumentiert, ein Arbeitgeber dürfe die Arbeitsbeziehung nur aufkündigen, wenn es hierfür objektiv gute Gründe gibt – ein grundsätzlicher Kündigungsschutz ist also nicht nur rechtlich sondern auch moralisch geboten. Daher schließt sich die Frage an, ob das Bagatelldelikt als Vertragspflichtverletzung ein guter objektiver Grund ist, welcher eine Kündigung rechtfertigt. Von Seiten der Kündigungsbefürworter wird argumentiert, das Vertrauensverhältnis sei durch die Tat zerstört. Daher wird geprüft, ob der Vertrauensverlust aufgrund des Bagatelldiebstahls ein guter Grund für die Kündigung ist. Ob das Bagatelldelikt als objektiver Grund für den Vertrauensverlust gewertet werden kann, hängt nun davon ab, ob der Mitarbeiter das Vertrauen tatsächlich missbraucht hat. Daraus folgt, dass sich die moralische Bewertung des Delikts an Prinzipien orientiert, die auch im Strafrecht gelten (Schuldprinzip, Unschuldsvermutung, Rechtsprinzips, Ultima-Ratio-Prinzip). Das Ergebnis der Untersuchung ist: Bagatelldelikte können aufgrund ihrer Spezifika anhand dieser gültigen Prinzipien schwerlich als objektiver Grund angesehen werden, der eine fristlose Kündigung ohne vorherige Abmahnung rechtfertigt. Abschließend wird gezeigt, dass auch die vermeintliche präventive Wirkung der Kündigung nicht als guter Kündigungsgrund gelten kann. Mit spezialpräventiven Gründen kann die Kündigung ebenso wenig wie mit positiver als auch negativer generalpräventiver Wirkungen begründet werden. Insbesondere stellt eine Kündigung aus generalpräventiven Zwecken eine illegitime Instrumentalisierung des Mitarbeiters als Person dar. Zwar können Kündigungen bei Bagatelldelikten durchaus nicht nur arbeitsrechtlich, sondern auch moralisch gerechtfertigt sein. Aufgrund der Spezifika der Bagatelldelikte und der Vertrauenskündigung ist die fristlose Kündigung in den meisten vorliegenden Fällen aus ethischer Sicht aber nicht akzeptabel. Hohe Anforderungen an die Objektivität des Vertrauensverlustes, der als Kündigungsgrund dienen soll, sind aufgrund der schwächeren Machtposition der Mitarbeiter notwendig und klug im Sinne der Wahrung des betrieblichen und gesellschaftlichen Friedens. Es wird daher für ein grundsätzliches Abmahnungsgebot bei Bagatelldiebstählen plädiert, welche weitergehend durch eine Wertgrenze definiert werden können. Weitere Maßnahmen, mit denen man missbräuchlichen Bagatelldeliktkündigungen vorbeugen oder auf Bagatelldelikte reagieren kann werden im Ausblick genannt.
Sprachverständnisuntersuchungen sind sowohl für die Forschung zum Spracherwerb und zu dessen Störungen als auch für die Diagnostik in der klinischen Praxis von essentieller Bedeutung. Zwei der verbreitetesten Methoden zur Erfassung des Verständnisses von syntaktischen Strukturen sind das Ausagieren von Sätzen (AS) und die Satz-Bild-Zuordnung (SBZ). Beide Methoden sind mit unterschiedlichen Anforderungen an die Probanden sowie mit spezifischen Vor- und Nachteilen verbunden (vgl. z.B. Goodluck 1996, Gerken & Shady 1996), woraus sich die Frage ergibt, inwiefern die Wahl der Methode das Testergebnis und die damit verbundenen Schlussfolgerungen beeinflusst. In der hier beschriebenen empirischen Untersuchung wurden die AS- und die SBZ-Methode anhand des Verstehens semantisch reversibler Sätze mit Objektvoranstellung direkt miteinander verglichen: Jeweils 24 monolingual mit Deutsch als Muttersprache aufwachsenden, sprachunauffälligen Kindern im Alter von 3;0 bis 3;5 bzw. 5;0 bis 5;5 Jahren wurden insgesamt zwölf Items, von denen neun aus semantisch reversiblen Sätzen mit Objektvoranstellung und drei aus entsprechenden subjektinitialen Kontrastsätzen bestanden, sowohl mittels der AS-Methode als auch mittels der SBZ-Methode präsentiert. Zum Ausagieren der Testsätze (AS-Test) wurden Spielzeugfiguren verwendet, für die Satz-Bild-Zuordnung (SBZ-Test) wurden pro Item ein Ziel- und zwei Ablenkerbilder erstellt. Die kindlichen Reaktionen wurden nach syntaktischen Kriterien als korrekt bzw. inkorrekt bewertet, Abweichungen wurden hinsichtlich der Fehlerart klassifiziert. Zusätzlich wurde bei den einzelnen Kindern der Erwerbsstand der untersuchten Struktur beurteilt und es wurden, sofern möglich, die eingesetzten Sprachverständnisstrategien ermittelt. Der Vergleich der Methoden ergab für die einzelnen Altersgruppen sehr unterschiedliche Befunde: Bei den 3;0- bis 3;5-jährigen Kindern zeigten sich im SBZ-Test teilweise starke Rateeffekte, die zu verfälschten Ergebnissen und kaum interpretierbaren Reaktionsmustern führten, während dies im AS-Test nicht der Fall war. Für diese Altersgruppe ist demnach die AS-Methode als die geeignetere anzusehen. Bei den 5;0- bis 5;5-jährigen Kindern konnte indes keine derartige Diskrepanz zwischen den beiden Tests festgestellt werden. Vielmehr waren die Leistungen hier insgesamt vergleichbar, so dass für diese Altersgruppe die AS- und die SBZ-Methode als für die Untersuchung des Syntaxverständnisses gleichwertig gelten können. Darüber hinaus bestätigte die Untersuchung viele der in der Literatur beschriebenen Vor- und Nachteile der beiden Methoden, darunter der geringere Materialbeschaffungsaufwand bei der AS-Methode, die größere Durchführungspraktikabilität der SBZ-Methode, die höhere Attraktivität und das geringere Risiko für Antwort-biases bei der AS-Methode, die leichtere Bewertbarkeit der kindlichen Reaktionen bei der SBZ-Methode. Im Vergleich der Altersgruppen zeigte sich, dass die 5;0- bis 5;5-jährigen Kinder Testsätze mit Objektvoranstellung deutlich besser verstanden als die 3;0- bis 3;5-jährigen: Die meisten der jüngeren Kinder hatten die untersuchte Struktur offenbar noch nicht erworben – sie interpretierten die Sätze mit Objektvoranstellung stattdessen am häufigsten nach der Wortreihenfolgestrategie, verstanden sie also wie subjektinitiale Strukturen. Von den 5;0- bis 5;5-jährigen Kindern dagegen hatten 75% die untersuchte Struktur rezeptiv erworben, interpretierten die Testsätze also primär korrekt nach der grammatischen Strategie. Aus diesen Ergebnissen wurde geschlossen, dass die Struktur semantisch reversibler Sätze mit Objektvoranstellung frühestens ab einem Alter von 5;0 bis 5;5 Jahren als in der ungestörten Sprachentwicklung rezeptiv erworben gelten kann. Da sich jedoch in beiden Altersgruppen trotz allem eine erhebliche interindividuelle Variation hinsichtlich der Verständnisfähigkeiten zeigte, muss insgesamt von einem relativ langen Zeitfenster für den ungestörten Erwerb dieser Struktur ausgegangen werden.
Ghrelin is a unique hunger-inducing stomach-borne hormone. It activates orexigenic circuits in the central nervous system (CNS) when acylated with a fatty acid residue by the Ghrelin O-acyltransferase (GOAT). Soon after the discovery of ghrelin a theoretical model emerged which suggests that the gastric peptide ghrelin is the first “meal initiation molecule
This work describes the realization of physically crosslinked networks based on gelatin by the introduction of functional groups enabling specific supramolecular interactions. Molecular models were developed in order to predict the material properties and permit to establish a knowledge-based approach to material design. The effect of additional supramolecular interactions with hydroxyapaptite was then studied in composite materials. The calculated properties are compared to experimental results to validate the models. The models are then further used for the study of physically crosslinked networks. Gelatin was functionalized with desaminotyrosine (DAT) and desaminotyrosyl-tyrosine (DATT) side groups, derived from the natural amino acid tyrosine. These group can potentially undergo to π-π and hydrogen bonding interactions also under physiological conditions. Molecular dynamics (MD) simulations were performed on models with 0.8 wt.-% or 25 wt.-% water content, using the second generation forcefield CFF91. The validation of the models was obtained by the comparison with specific experimental data such as, density, peptide conformational angles and X-ray scattering spectra. The models were then used to predict the supramolecular organization of the polymer chain, analyze the formation of physical netpoints and calculate the mechanical properties. An important finding of simulation was that with the increase of aromatic groups also the number of observed physical netpoints increased. The number of relatively stable physical netpoints, on average zero 0 for natural gelatin, increased to 1 and 6 for DAT and DATT functionalized gelatins respectively. A comparison with the Flory-Rehner model suggested reduced equilibrium swelling by factor 6 of the DATT-functionalized materials in water. The functionalized gelatins could be synthesized by chemoselective coupling of the free carboxylic acid groups of DAT and DATT to the free amino groups of gelatin. At 25 wt.-% water content, the simulated and experimentally determined elastic mechanical properties (e.g. Young Modulus) were both in the order of GPa and were not influenced by the degree of aromatic modification. The experimental equilibrium degree of swelling in water decreased with increasing the number of inserted aromatic functions (from 2800 vol.-% for pure gelatin to 300 vol.-% for the DATT modified gelatin), at the same time, Young’s modulus, elongation at break, and maximum tensile strength increased. It could be show that the functionalization with DAT and DATT influences the chain organization of gelatin based materials together with a controlled drying condition. Functionalization with DAT and DATT lead to a drastic reduction of helical renaturation, that could be more finely controlled by the applied drying conditions. The properties of the materials could then be influenced by application of two independent methods. Composite materials of DAT and DATT functionalized gelatins with hydroxyapatite (HAp) show a drastic reduction of swelling degree. In tensile tests and rheological measurements, the composites equilibrated in water had increased Young’s moduli (from 200 kPa up to 2 MPa) and tensile strength (from 57 kPa up to 1.1 MPa) compared to the natural polymer matrix without affecting the elongation at break. Furthermore, an increased thermal stability from 40 °C to 85 °C of the networks could be demonstrated. The differences of the behaviour of the functionalized gelatins to pure gelatin as matrix suggested an additional stabilizing bond between the incorporated aromatic groups to the hydroxyapatite.
About the relation between implicit Theory of Mind & the comprehension of complement sentences
(2010)
Previous studies on the relation between language and social cognition have shown that children’s mastery of embedded sentential complements plays a causal role for the development of a Theory of Mind (ToM). Children start to succeed on complementation tasks in which they are required to report the content of an embedded clause in the second half of the fourth year. Traditional ToM tasks test the child’s ability to predict that a person who is holding a false belief (FB) about a situation will act "falsely". In these task, children do not represent FBs until the age of 4 years. According the linguistic determinism hypothesis, only the unique syntax of complement sentences provides the format for representing FBs. However, experiments measuring children’s looking behavior instead of their explicit predictions provided evidence that already 2-year olds possess an implicit ToM. This dissertation examined the question of whether there is an interrelation also between implicit ToM and the comprehension of complement sentences in typically developing German preschoolers. Two studies were conducted. In a correlational study (Study 1 ), 3-year-old children’s performance on a traditional (explicit) FB task, on an implicit FB task and on language tasks measuring children’s comprehension of tensed sentential complements were collected and tested for their interdependence. Eye-tracking methodology was used to assess implicit ToM by measuring participants’ spontaneous anticipatory eye movements while they were watching FB movies. Two central findings emerged. First, predictive looking (implicit ToM) was not correlated with complement mastery, although both measures were associated with explicit FB task performance. This pattern of results suggests that explicit, but not implicit ToM is language dependent. Second, as a group, 3-year-olds did not display implicit FB understanding. That is, previous findings on a precocious reasoning ability could not be replicated. This indicates that the characteristics of predictive looking tasks play a role for the elicitation of implicit FB understanding as the current task was completely nonverbal and as complex as traditional FB tasks. Study 2 took a methodological approach by investigating whether children display an earlier comprehension of sentential complements when using the same means of measurement as used in experimental tasks tapping implicit ToM, namely anticipatory looking. Two experiments were conducted. 3-year-olds were confronted either with a complement sentence expressing the protagonist’s FB (Exp. 1) or with a complex sentence expressing the protagonist’s belief without giving any information about the truth/ falsity of the belief (Exp. 2). Afterwards, their expectations about the protagonist’s future behavior were measured. Overall, implicit measures reveal no considerably earlier understanding of sentential complementation. Whereas 3-year-olds did not display a comprehension of complex sentences if these embedded a false proposition, children from 3;9 years on were proficient in processing complement sentences if the truth value of the embedded proposition could not be evaluated. This pattern of results suggests that (1) the linguistic expression of a person’s FB does not elicit implicit FB understanding and that (2) the assessment of the purely syntactic understanding of complement sentences is affected by competing reality information. In conclusion, this dissertation found no evidence that the implicit ToM is related to the comprehension of sentential complementation. The findings suggest that implicit ToM might be based on nonlinguistic processes. Results are discussed in the light of recently proposed dual-process models that assume two cognitive mechanisms that account for different levels of ToM task performance.
Der Aufsatz befasst sich mit der Frage, was man aus der internationalen Forschung darüber weiß, welcher Unterricht und welches Lehrerverhalten Auswirkungen auf die Lernergebnisse der Schüler/innen hat und welche Möglichkeiten es gibt, solches Verhalten zu verstärken. Berücksichtigt werden nur Forschungsergebnisse, die hohen methodischen Anforderungen genügen, kausale Schlussfolgerungen erlauben und generalisierbar sind. Konsequenzen für die Lehrerbildung werden diskutiert.
Bislang konzentrierten sich die Untersuchungen des westdeutschen Blicks auf Ostdeutschland auf den Zeitraum vor der Wende oder auf Rundfunk- und Fernseh-Medien. Die Gegenwartsliteratur stellt einen weißen Fleck in dieser Frage dar. Anhand des Chronotopos-Konzepts von Michail Bachtin werden in dieser Arbeit daher zeitliche und räumliche Tiefenstrukturen in der Darstellung Ostdeutschlands in den Werken Jan Böttchers und Andreas Maiers herausgearbeitet und mit ihrer Darstellung Westdeutschlands verglichen. Neben grundsätzlichen Unterschieden fallen dabei signifikante Übereinstimmungen auf.
Südafrika und die Fußball-WM
(2010)
Quid novi ex Africa? Diese Fußball-Weltmeisterschaft hat das Potenzial, am negativen Image des Kontinents zu rütteln. Wenn am 11. Juni das erste Spiel beginnt, sollte dies auch für uns Anstoß sein, über Afrika und dessen Platz in der Welt von heute nachzudenken. Auf dem Streitplatz diskutieren wir die Interessen Deutschlands. Weiterhin wird in diesem Heft die Shanghai-Gruppe analysiert, über den Kopenhagener Klimagipfel als Präzedenzfall für die künftige Weltpolitik nachgedacht und die ultimative Frage "Wer regiert die Welt?" beantwortet.
This thesis is concerned with the development of numerical methods using finite difference techniques for the discretization of initial value problems (IVPs) and initial boundary value problems (IBVPs) of certain hyperbolic systems which are first order in time and second order in space. This type of system appears in some formulations of Einstein equations, such as ADM, BSSN, NOR, and the generalized harmonic formulation. For IVP, the stability method proposed in [14] is extended from second and fourth order centered schemes, to 2n-order accuracy, including also the case when some first order derivatives are approximated with off-centered finite difference operators (FDO) and dissipation is added to the right-hand sides of the equations. For the model problem of the wave equation, special attention is paid to the analysis of Courant limits and numerical speeds. Although off-centered FDOs have larger truncation errors than centered FDOs, it is shown that in certain situations, off-centering by just one point can be beneficial for the overall accuracy of the numerical scheme. The wave equation is also analyzed in respect to its initial boundary value problem. All three types of boundaries - outflow, inflow and completely inflow that can appear in this case, are investigated. Using the ghost-point method, 2n-accurate (n = 1, 4) numerical prescriptions are prescribed for each type of boundary. The inflow boundary is also approached using the SAT-SBP method. In the end of the thesis, a 1-D variant of BSSN formulation is derived and some of its IBVPs are considered. The boundary procedures, based on the ghost-point method, are intended to preserve the interior 2n-accuracy. Numerical tests show that this is the case if sufficient dissipation is added to the rhs of the equations.
Ghana ist ein Musterbeispiel dafür, dass ein Entwicklungsland den Weg zu Good Governance schaffen kann. In vielen Studien wird dem Land im afrikanischen Vergleich heute bescheinigt, hier ein Vorreiter zu sein. Dies ist Ausgangslage der vorliegenden Studie, die der Frage nachgeht „Welche Gründe, Muster und Bedingungen führen zur Entstehung von Good Governance?“. Im Zentrum der vorliegenden Studie steht, wie aus der erkenntnisleitenden Fragestellung hervorgeht, eine empirische Untersuchung zur Entstehung von Good Governance und damit ein Transformationsprozess. Dieser wird bewusst über einen sehr langen Zeitraum (über ein halbes Jahrhundert) untersucht, um auch langfristige Entwicklungen einbeziehen zu können. Die Studie wird mit Hilfe eines „Mixed-Methods-Ansatzes“ sowohl unter Rückgriff auf quantitative als auch auf qualitative Methoden durchgeführt, was sich im Rückblick als sehr ertragreich erwiesen hat. Zunächst wird die Qualität der Governance über den gesamten Zeitraum anhand von sechs Indikatoren gemessen. Danach werden qualitativ die Gründe für die Fort- und Rückschritte analysiert. Dabei lassen sich immer wieder Systematiken herausarbeiten, wie zum Beispiel zirkuläre Entwicklungen, die über viele Jahre den Weg hin zu Good Governance verhinderten, bis jeweils Ausbrüche aus den Kreisläufen geschafft werden konnten. Sowohl in der demokratischen und rechtsstaatlichen Entwicklung als auch bezogen auf die Versorgung der Bevölkerung mit öffentlichen Gütern und die wirtschaftliche Entwicklung. Auch wenn die verschiedenen Bereiche von Good Governance zunächst einzeln untersucht werden, so zeigen sich gleichzeitig deutlich die Wechselwirkungen der Komponenten. Zum Beispiel kristallisiert sich klar heraus, dass Rechtsstaatlichkeit sowohl auf die Stabilität politischer Systeme wirkt, als auch auf die wirtschaftliche Entwicklung. Ebenso beeinflussen diese wiederum die Korruption. Ähnliche Verknüpfungen lassen sich auch bei allen anderen Bereichen nachvollziehen. Die Entwicklung eines Landes kann also nur unter Berücksichtigung eines komplexen Governance-Systems verstanden und erklärt werden. Dabei können die Wechselwirkungen entweder konstruktiv oder destruktiv sein. Die Verflechtungen der einzelnen Bereiche werden in einem Negativ- und dann in einem Positiv-Szenario festgehalten. Diese Idealtypen-Bildung spitzt die Erkenntnisse der vorliegenden Arbeit zu und dient dem analytischen Verständnis der untersuchten Prozesse. Die Untersuchung zeigt, wie Good Governance über das Zusammenspiel verschiedener Faktoren entstehen kann und dass es wissenschaftlich sehr ertragreich ist, Transformationsforschung auf ein komplexes Governance-System auszuweiten. Hierbei werden die vielen empirisch erarbeiteten Ergebnisse zu den einzelnen Transformationen zu komplexen, in sich greifenden Gesamtszenarien zusammengeführt. Da es bisher keine explizite Good Governance-Transformationsforschung gab, wurde hiermit ein erster Schritt in diese Richtung getan. Es wird darüber hinaus deutlich, dass eine Transformation zu Good Governance nicht durch eine kurzfristige Veränderung der Rahmenbedingungen zu erreichen ist. Es geht um kulturelle Veränderungen, um Lernprozesse, um langfristige Entwicklungen, die in der Studie am Beispiel Ghana analysiert werden. In vielen vorangegangenen Transformationsstudien wurde diese zeitliche Komponente vernachlässigt. Ghana hat bereits viele Schritte getan, um einen Weg in die Zukunft und zu Good Governance zu finden. Die Untersuchung dieser Schritte ist Kern der vorliegenden Arbeit. Der Weg Ghanas ist jedoch noch nicht abgeschlossen.
Este artículo analiza las láminas en el contexto de los escritos con los que se relacionaron, asociando las imágenes con los textos, para entender el sentido de su selección y lo que se buscaba mostrar con ellas. El texto se divide en tres partes: la primera, busca entender el sentido general de Vues y, en ese contexto, la selección de las láminas relativas a la actual Colombia; la segunda, analiza las láminas que se publicaron en esa obra sobre ese territorio y la tercera la forma como en esas láminas se trabajó la figura humana. Se plantea que el argumento básico de Vues era que las cordilleras se constituían en el entorno de los pueblos “civilizados” de América; la discusión de fondo, sin embargo, era si ya América estaba ocupada por europeos o si era todavía una continente “silvestre” que Europa podía redescubrir y reocupar, tal como sugiere Humboldt. Sobre este punto difícilmente podría haber acuerdo entre los criollos eurodescendientes y los europeos. Por este motivo, entre otros, es difícil argumentar que dentro del proceso de reconfiguración de la imagen americana que se estaba dando a finales del siglo XVIII y comienzos del siglo XIX hubo consenso alrededor de un autor, así fuera de la talla de Humboldt.
Der Vergleich mit Humboldts Tagebüchern bietet Aufschlüsse über die für Humboldt typische Arbeitsweise und die Wege seines Wissenserwerbs. Seine eigenen Beobachtungen während des Aufenthaltes in Mexiko sind ergänzt durch persönliche Kontakte vor Ort, durch Literatur- und Archivstudien in Mexiko und nach der Rückkehr in europäischen Archiven. So hat er beispielsweise die Pyramiden von Teotihuacan nicht besucht, aber die Beschreibung aus einem Brief von Juan José de Oteyza, den er am Real Seminario de Minería in Mexiko-Stadt kennengelernt hatte, in seine Publikation aufgenommen. Auch einzelne Tafeln stellen mexikanische Altertümer dar, die Humboldt nicht selbst besichtigt hat. Im Vortrag werden einige Quellen der „Vues des Cordillères“ aus Humboldts Tagebüchern vorgestellt, wie z. B. Beschreibungen seiner Exkursionen in Mexiko aus den von der Alexander-von-Humboldt-Forschungsstelle publizierten Bänden und bisher unedierte Notizen seiner Studien im Archiv des Vatikans im Sommer 1805.
A pesar de que Chile no estuvo incluido en el viaje sudamericano de Alejandro de Humboldt, dada la preferencia del naturalista prusiano por escenario tropical, su presencia se hizo evidente durante el siglo XIX. Aquí, en particular, se analiza lo anterior a partir de dos esferas: la figura de Alejandro de Humboldt y la ciencia humboldtiana en Chile. Por un lado, se analizan las formas de apropiación que la ciencia hizo de la obra de Humboldt durante el siglo XIX. En otro aspecto, se analiza a Alejandro de Humboldt como esfera de legitimación para la propia intelectualidad chilena decimonónica. Desde esta perspectiva se comentan las formas a partir de las cuales el nombre del autor berlinés fue instalado en las discusiones y circuitos ilustrados chilenos.
Über die Autoren
(2010)
rezensiertes Werk: Leshonot yehude Sefarad ve-ha-mizrach vesifruyotehem / Languages and literatures of Sephardic and Oriental Jews. - Jerusalem : Misgav Yerushalayim, 2009. - 484 S. [hebr.] + 434 S. [lat.], ; Ill.
The origin and evolution of granites has been widely studied because granitoid rocks constitute a major portion of the Earth ́s crust. The formation of granitic magma is, besides temperature mainly triggered by the water content of these rocks. The presence of water in magmas plays an important role due to the ability of aqueous fluids to change the chemical composition of the magma. The exsolution of aqueous fluids from melts is closely linked to a fractionation of elements between the two phases. Then, aqueous fluids migrate to shallower parts of the Earth ́s crust because of it ́s lower density compared to that of melts and adjacent rocks. This process separates fluids and melts, and furthermore, during the ascent, aqueous fluids can react with the adjacent rocks and alter their chemical signature. This is particularly impor- tant during the formation of magmatic-hydrothermal ore deposits or in the late stages of the evolution of magmatic complexes. For a deeper insight to these processes, it is essential to improve our knowledge on element behavior in such systems. In particular, trace elements are used for these studies and petrogenetic interpretations because, unlike major elements, they are not essential for the stability of the phases involved and often reflect magmatic processes with less ambiguity. However, for the majority of important trace elements, the dependence of the geochemical behavior on temperature, pressure, and in particular on the composition of the system are only incompletely or not at all experimentally studied. Former studies often fo- cus on the determination of fluid−melt partition coefficients (Df/m=cfluid/cmelt) of economically interesting elements, e.g., Mo, Sn, Cu, and there are some partitioning data available for ele- ments that are also commonly used for petrological interpretations. At present, no systematic experimental data on trace element behavior in fluid−melt systems as function of pressure, temperature, and chemical composition are available. Additionally, almost all existing data are based on the analysis of quenched phases. This results in substantial uncertainties, particularly for the quenched aqueous fluid because trace element concentrations may change upon cooling. The objective of this PhD thesis consisted in the study of fluid−melt partition coefficients between aqueous solutions and granitic melts for different trace elements (Rb, Sr, Ba, La, Y, and Yb) as a function of temperature, pressure, salinity of the fluid, composition of the melt, and experimental and analytical approach. The latter included the refinement of an existing method to measure trace element concentrations in fluids equilibrated with silicate melts di- rectly at elevated pressures and temperatures using a hydrothermal diamond-anvil cell and synchrotron radiation X-ray fluorescence microanalysis. The application of this in-situ method enables to avoid the main source of error in data from quench experiments, i.e., trace element concentration in the fluid. A comparison of the in-situ results to data of conventional quench experiments allows a critical evaluation of quench data from this study and literature data. In detail, starting materials consisted of a suite of trace element doped haplogranitic glasses with ASI varying between 0.8 and 1.4 and H2O or a chloridic solution with m NaCl/KCl=1 and different salinities (1.16 to 3.56 m (NaCl+KCl)). Experiments were performed at 750 to 950◦C and 0.2 or 0.5 GPa using conventional quench devices (externally and internally heated pressure vessels) with different quench rates, and at 750◦C and 0.2 to 1.4 GPa with in-situ analysis of the trace element concentration in the fluids. The fluid−melt partitioning data of all studied trace elements show 1. a preference for the melt (Df/m < 1) at all studied conditions, 2. one to two orders of magnitude higher Df/m using chloridic solutions compared to experiments with H2O, 3. a clear dependence on the melt composition for fluid−melt partitioning of Sr, Ba, La, Y, and Yb in experiments using chloridic solutions, 4. quench rate−related differences of fluid−melt partition coefficients of Rb and Sr, and 5. distinctly higher fluid−melt partitioning data obtained from in-situ experiments than from comparable quench runs, particularly in the case of H2O as starting solution. The data point to a preference of all studied trace elements for the melt even at fairly high salinities, which contrasts with other experimental studies, but is supported by data from studies of natural co-genetically trapped fluid and melt inclusions. The in-situ measurements of trace element concentrations in the fluid verify that aqueous fluids will change their composition upon cooling, which is in particular important for Cl free systems. The distinct differences of the in-situ results to quench data of this study as well as to data from the literature signify the im- portance of a careful fluid sampling and analysis. Therefore, the direct measurement of trace element contents in fluids equilibrated with silicate melts at elevated PT conditions represents an important development to obtain more reliable fluid−melt partition coefficients. For further improvement, both the aqueous fluid and the silicate melt need to be analyzed in-situ because partitioning data that are based on the direct measurement of the trace element content in the fluid and analysis of a quenched melt are still not completely free of quench effects. At present, all available data on element complexation in aqueous fluids in equilibrium with silicate melts at high PT are indirectly derived from partitioning data, which involves in these experiments assumptions on the species present in the fluid. However, the activities of chemical components in these partitioning experiments are not well constrained, which is required for the definition of exchange equilibria between melt and fluid species. For example, the melt-dependent variation of partition coefficient observed for Sr imply that this element can not only be complexed by Cl− as suggested previously. The data indicate a more complicated complexation of Sr in the aqueous fluid. To verify this hypothesis, the in-situ setup was also used to determine strontium complexation in fluids equilibrated with silicate melts at desired PT conditions by the application of X-ray absorption near edge structure (XANES) spectroscopy. First results show a strong effect of both fluid and melt composition on the resulting XANES spectra, which indicates different complexation environments for Sr.
Dass die Textlinguistik nicht umhin kommt, ihre Beschreibungen und ihr Instrumentarium auch im Hinblick auf Texte zu überprüfen, die nicht von Muttersprachlern erzeugt worden sind, ist durch die wachsenden Bedürfnisse nach fremdsprachiger Kommunikation und die rapide steigende Zahl entsprechender kommunikativer Ereignisse bedingt. Der Fokus der vorliegenden Publikation liegt auf dem fremdsprachigen Text (vorzugsweise in seiner schriftlichen, monologischen Ausprägung) als sprachlicher Größe liegen. Bei der Analyse fremdsprachiger Texte werden neben textlinguistischen Fragen aber auch andere Gesichtspunkte berücksichtigt: soziolinguistische Aspekte, z.B. in Bezug auf die Kommunikationspartner, die kommunikativen Domänen, den sozial-historischen Rahmen der Kommunikation usw., psycholinguistische Hintergründe, z.B. im Hinblick auf die kognitive Verarbeitung fremdsprachlich-kommunikativer Anforderungen, literaturwissenschaftliche Bezüge, etwa hinsichtlich fremdsprachiger Einflüsse auf literarische Werke und ihre Rolle im literarischen Diskurs, translationswissenschaftliche Gesichtspunkte im Hinblick auf die Adaptation und Bewahrung des Fremden im übersetzten Text sowie pädagogisch-didaktische Fragen im Rahmen des gesteuerten Fremdsprachenerwerbs.
Lake ecosystems across the globe have responded to climate warming of recent decades. However, correctly attributing observed changes to altered climatic conditions is complicated by multiple anthropogenic influences on lakes. This thesis contributes to a better understanding of climate impacts on freshwater phytoplankton, which forms the basis of the food chain and decisively influences water quality. The analyses were, for the most part, based on a long-term data set of physical, chemical and biological variables of a shallow, polymictic lake in north-eastern Germany (Müggelsee), which was subject to a simultaneous change in climate and trophic state during the past three decades. Data analysis included constructing a dynamic simulation model, implementing a genetic algorithm to parameterize models, and applying statistical techniques of classification tree and time-series analysis. Model results indicated that climatic factors and trophic state interactively determine the timing of the phytoplankton spring bloom (phenology) in shallow lakes. Under equally mild spring conditions, the phytoplankton spring bloom collapsed earlier under high than under low nutrient availability, due to a switch from a bottom-up driven to a top-down driven collapse. A novel approach to model phenology proved useful to assess the timings of population peaks in an artificially forced zooplankton-phytoplankton system. Mimicking climate warming by lengthening the growing period advanced algal blooms and consequently also peaks in zooplankton abundance. Investigating the reasons for the contrasting development of cyanobacteria during two recent summer heat wave events revealed that anomalously hot weather did not always, as often hypothesized, promote cyanobacteria in the nutrient-rich lake studied. The seasonal timing and duration of heat waves determined whether critical thresholds of thermal stratification, decisive for cyanobacterial bloom formation, were crossed. In addition, the temporal patterns of heat wave events influenced the summer abundance of some zooplankton species, which as predators may serve as a buffer by suppressing phytoplankton bloom formation. This thesis adds to the growing body of evidence that lake ecosystems have strongly responded to climatic changes of recent decades. It reaches beyond many previous studies of climate impacts on lakes by focusing on underlying mechanisms and explicitly considering multiple environmental changes. Key findings show that climate impacts are more severe in nutrient-rich than in nutrient-poor lakes. Hence, to develop lake management plans for the future, limnologists need to seek a comprehensive, mechanistic understanding of overlapping effects of the multi-faceted human footprint on aquatic ecosystems.
Moby-Dick als Leerstelle und romantische Chiffre für die Aporie eines transzendentalen Signifikats
(2010)
Die Arbeit unternimmt den Versuch, Melvilles Moby-Dick als einen Vorboten postmoderner Literarizität in den Blick zu nehmen, der in seiner Autoreferentialität den eigenen textuellen Status kritisch-ironisierend reflektiert und Sprache als einen krisenhaften Zugang zu Welt und Kosmos ins Spiel bringt. Sie legt dar, dass Melvilles opus magnum ein im Verlaufe der abendländischen Philosophie epistemologisch und semiologisch virulent gewordenes Krisenbewusstsein vom "Phantasma der Umfassung der Wirklichkeit" (Lyotard) einerseits auf inhaltlicher und andererseits autoreferentiell auf der Ebene der écriture inszeniert. Entsprechend wird davon ausgegangen, dass die vom Text absorbierten Diskurse in ihrer schieren Vielzahl nicht als partikulare Bezüge hermeneutisch isoliert werden können, sondern stattdessen in ihrer Heterogenität selbst die zentrale Problematik illustrieren, in deren Dienst sie als konstitutive Elemente stehen: Statt positiven Sinn zu stiften, verunmöglichen sie jegliche interpretatorische Direktive und verweisen dadurch auf eine dem Roman inhärente negative Dimension von Sinn – sie sind also vielmehr Bestandteile eines verhandelten Problems als dessen Lösung. Nicht nur in den cetologischen Abschnitten des Romans – gleichwohl dort am offenkundigsten – lässt sich Melvilles spielerisch-dekonstruktiver Umgang mit westlichen Wissens- und Denkmodellen erkennen: Dringt man in ahabischer Manie(r) in das semantische Feld des Romans auf der Suche nach einem letzten Grund, einer inferentiellen Letztbegründung, gerät man in einen infiniten regressiven Strudel, der jede getroffene semantische Arretierung auf die Bedingungen ihrer Möglichkeit hin befragt und dadurch wieder aufbricht. Eine ishmaelische Lektüre des Moby-Dick bestünde darin, den Anspruch auf Letztbegründetheit im Sinne der différance Derridas aufzuschieben und sich damit der Gravitation eines transzendentalen Signifikats zu entziehen. Liest man die cetologischen Kapitel vor diesem Hintergrund, kann man in ihnen – so eine der zentralen Thesen der Arbeit – eine autoreferentielle Kontrastfolie erkennen, eine negative Exemplifikation dessen, wie sich der Moby-Dick nicht erfassen lässt: gewissermaßen eine Lektüreanleitung ex negativo. Wesentliche Merkmale der Melvilleschen écriture sind Ambivalenz, Parodie und Dialogizität. Er verwendet stilistische und motivische Versatzstücke, destruiert sie und unterläuft so permanent die Ernsthaftigkeit der den Roman strukturierenden Schicksalszeichen wie auch die interpretativen Anstrengungen des Lesers. Die Autorität des eigenen Diskurses wird ironisch unterminiert und der Text damit in einer Schwebe zwischen Parodie und Monomanie, Unabschließbarkeit und Universalanspruch gehalten. Als die figurativen Kraftfelder dieser konkurrierenden Paradigmen stehen Ahab und Ishmael auf der Handlungsebene personifizierend für die paradoxe Konstellation des gesamten Textes, der nicht die Auflösung oder Aufhebung seiner konfliktiven Elemente sucht, sondern als ästhetischer Ausdruck des Paradoxen feste Orientierungspunkt vorenthält. Anstatt beide Figuren und die ihnen zugrundeliegenden epistemologischen Strategien antagonistisch in Opposition zueinander zu stellen, begreift diese Arbeit sie als komplementäre Elemente eines romantischen Metatextes, der sie in eine konfliktive Rezeption einfasst. In Analogie zum Konzept der romantischen Ironie Friedrich Schlegels wird Ahab hierbei als prototypischer Allegorisierer begriffen, wohingegen Ishmael als Ironiker für die Relativierung derartig monomanischer Kraftakte steht – zwischen Anspannung und Abspannung, Unbedingtem und Bedingtem baut sich jene Dynamik auf, die den gesamten Text durchwaltet. Im Sinne der romantischen Universalpoesie ist der Moby-Dick nicht auf einen systemischen Abschluss hin orientiert, sondern besteht auf/aus seiner Unabschließbarkeit: Heterogenität, Inkonsequenz, Verworrenheit und mitunter Unverständlichkeit sind demnach keine Folgen kompositorischer Nachlässigkeit, sondern in ihrer Gesamtheit als das performative Moment der eigentlichen Mitteilung zu begreifen.
Das Buch widmet sich der Betrachtung der verschiedenen Gegnerschaftsformen in Computerspielen als Ausdruck seiner Interaktivität, wobei eine dreiteilige Typologie generiert wird, mit der die Gegnerschaftsarten eines jeden Spieles abgedeckt werden können. Hierbei wird unterschieden zwischen dem „Wettbewerb“ (dieser zeichnet sich durch Chancengleichheit der Teilnehmer bei einer auf dasselbe Ziel ausgerichteten Bewegung aus), der „Feindschaft“ (bei der die Spieler unterschiedliche, häufig konträre Ziele verfolgen und eine gegenseitige Tötungsbereitschaft aufweisen) sowie der „Umgebung“ (bei der die Spieler nicht gegen einen realen Feind, sondern gegen die Hindernisse der Spielwelt antreten). Aus medienwissenschaftlicher Sicht spielt die Betrachtung der konzeptuellen Einbindung von Gewalt in den Spielekontext eine zentrale Rolle. Auf diese Weise wird versucht, die Interaktivität des Computerspiels anhand von agonalen Spielelementen zu systematisieren. Gewalt wird im Falle des Wettbewerbs domestiziert, durch die Feindschaft zelebriert und bei der Umgebung kanalisiert. Es soll in Gegnerschaft im Computerspiel jedoch weniger eine pädagogische, als vielmehr eine analytische Herangehensweise an das Computerspiel vollzogen werden. Darüber hinaus werden im Verlauf der Argumentation Kriterien herausgearbeitet, anhand derer sich die unterschiedlichen Formen von Gegnerschaft identifizieren lassen. Es wird eine simple Einteilungsmatrix bereitgestellt, die die Gegnerschaftsformen in Bezug zueinander setzt und deren Verhältnis verdeutlicht. Den Abschluss bildet ein Ausblick zur gängigen Spielhaltung von Computerspielern, der andeutet, wie diese theoretischen Konzepte in der Praxis mit Inhalten umgesetzt werden.
El paso de Alexander von Humboldt por Cuba en 1801 y en 1804, devino en un acontecimiento trascendental para la ciencia y la historiografía de la Mayor de las Antillas. Su estancia le permitió recopilar información, hacer experimentos científicos y entrar en contacto con la realidad de la colonia española en un momento de grandes cambios para su destino, cuando se inicia el despegue definitivo de la plantación esclavista, que la convirtió en el principal productor y exportador de azúcar y por un tiempo de café. El trabajo que se presenta analiza las impresiones críticas de Humboldt sobre los cambios económico-sociales y ambientales de la época y, en especial, el legado que sus opiniones y su obra representaron para el ambientalismo cubano desde el siglo XIX hasta el establecimiento, en 1996, del Parque Nacional que lleva su nombre, uno de los ecosistemas montañosos de mayor riqueza y endemismo en el planeta, declarado en 2001 por la UNESCO Patrimonio de la Humanidad.
No tenemos parecidas noticias sobre el recuerdo local en cuanto a Humboldt como lo tenemos en el caso de las cartas de Ferdinand Bellermann en Venezuela. Lo que si tenemos son las fuentes en Kraków que demuestran el gran impacto de Humboldt entre la élite política y económica en la Habana (1800-1830) y a la vez sus redes de comunicación. En la historia intelectual de Cuba el nombre de Humboldt esta intimamente ligado con el cosmopolitismo de las élites hispano-cubanas (Arango, conde Villanueva, Sagra, Saco) como con el concepto de la nación cubana (Luz y Caballero, Vidal Morales y Morales, Leuchsenring, Ortiz, Barnet y otros). Los últimos ganaron la hegemonía discursiva e hicieron a Humboldt “suyo” (“segundo descubridor de Cuba”), aunque este Humboldt eurocriollo para ellos también tenía la función de impedir cambios fundamentales en el sistema de esclavitud o comportamiento frente a los problemas de la post-emancipación en Cuba.
Además de proponer una primera doble síntesis: la de la geografía de las plantas y la crítica al colonialismo, durante su estadía en el territorio de la Audiencia de Quito (actual Ecuador), el “espíritu sensible y contemplativo” de Alexander von Humboldt muestra ya su preocupación por “dar a la naturaleza contornos fijos y todo el rigor de la ciencia” (Cosmos). El presente estudio buscará ofrecer un análisis y poner al día los datos antropológicos, históricos y geográficos sobre las Vues des Cordillères et Monumens des Peuples Indigènes de l’Amérique que se refieren a las comarcas relativas al actual Ecuador. Además del uso de los “Diarios” de Humboldt, recientemente publicados, y de las notas sobre lugares y personajes quiteños (ecuatorianos), se utilizará la bibliografía más reciente para explicar diversos aspectos, por ejemplo, la historia geológica de los volcanes, el valor arqueológico y etnográfico de los “Monumentos de los Pueblos Indígenas” ecuatorianos, todo bajo la percepción científica y estética expresada en Cuadros de la Naturaleza e interpretada bajo la visión universal de su testamento filosófico: Cosmos.
La ponencia se centrará en analizar la relación de Humboldt con el Perú a partir de los recursos naturales que ofrecía el virreinato peruano y que llamaron la atención del científico alemán. Dentro de ellos cabe destacar los yacimientos mineros que, debido a su formación minerológica, le resultaron de gran ínterés; sobre todo las minas de Hualgayoc, Cajamarca, y el mineral de Cerro de Pasco. Otro recurso que destacó en sus escritos fue el del guano de las islas y su uso como fertilizante y, adicionalmente, se preocupó por la recesión en la producción y exportación de la quinina, cascarilla o chinchona, que era ampliamente apreciada en Europa por sus efectos medicinales. Marginalmente se abordarán otros productos a los cuales el viajero les dedicó algunas reflexiones como la caña de azúcar y el algodón. La ponencia concluirá con una visión de la sociedad colonial peruana, enfatizando la presencia de los sectores sociales que se beneficiaban de la explotación y comercialización de estos bienes y de la mano de obra que operaba en los centros productivos de la costa y sierra del virreinato, tanto indígena como esclava.
Klassifikationen von Computerspielen widmet sich den Begriffen, mit denen Computerspiele zu Klassifikationszwecken versehen werden. Eine repräsentative Auswahl an derartigen Klassifikationsmodellen, die die Arbeiten von Designern, Journalisten, Pädagogen, Laien und expliziten Computerspielforschern abdeckt, wird vorgestellt und hinsichtlich ihrer Anwendbarkeit zur eindeutigen Bestimmung konkreter Spiele bewertet. Dabei zeigen sich zwei grundlegend verschiedene Herangehensweisen an die Problematik: „Kategorisierungen“ stellen feste Kategorien auf, in die einzelne Spiel eindeutig einsortiert werden sollen, während „Typologien“ die einzelnen Elemente von Spielen untersuchen und klassifizieren. Beide Ansätze werden analysiert und ihre jeweiligen Vor- und Nachteile aufgezeigt. Da offensichtlich wird, dass die Klassifikation von Computerspielen in bedeutendem Maße vom jeweiligen zugrunde liegenden Verständnis davon, was ein „Computerspiel“ sei, abhängt, ist der Untersuchung der Klassifikationsmodelle eine Betrachtung dieser problematischen Begriffsdefinition vorangestellt, die beispielhaft an vier ausgewählten Aspekten durchgeführt wird.
Temporal gravimeter observations, used in geodesy and geophysics to study variation of the Earth’s gravity field, are influenced by local water storage changes (WSC) and – from this perspective – add noise to the gravimeter signal records. At the same time, the part of the gravity signal caused by WSC may provide substantial information for hydrologists. Water storages are the fundamental state variable of hydrological systems, but comprehensive data on total WSC are practically inaccessible and their quantification is associated with a high level of uncertainty at the field scale. This study investigates the relationship between temporal gravity measurements and WSC in order to reduce the hydrological interfering signal from temporal gravity measurements and to explore the value of temporal gravity measurements for hydrology for the superconducting gravimeter (SG) of the Geodetic Observatory Wettzell, Germany. A 4D forward model with a spatially nested discretization domain was developed to simulate and calculate the local hydrological effect on the temporal gravity observations. An intensive measurement system was installed at the Geodetic Observatory Wettzell and WSC were measured in all relevant storage components, namely groundwater, saprolite, soil, top soil and snow storage. The monitoring system comprised also a suction-controlled, weighable, monolith-filled lysimeter, allowing an all time first comparison of a lysimeter and a gravimeter. Lysimeter data were used to estimate WSC at the field scale in combination with complementary observations and a hydrological 1D model. Total local WSC were derived, uncertainties were assessed and the hydrological gravity response was calculated from the WSC. A simple conceptual hydrological model was calibrated and evaluated against records of a superconducting gravimeter, soil moisture and groundwater time series. The model was evaluated by a split sample test and validated against independently estimated WSC from the lysimeter-based approach. A simulation of the hydrological gravity effect showed that WSC of one meter height along the topography caused a gravity response of 52 µGal, whereas, generally in geodesy, on flat terrain, the same water mass variation causes a gravity change of only 42 µGal (Bouguer approximation). The radius of influence of local water storage variations can be limited to 1000 m and 50 % to 80 % of the local hydro¬logical gravity signal is generated within a radius of 50 m around the gravimeter. At the Geodetic Observatory Wettzell, WSC in the snow pack, top soil, unsaturated saprolite and fractured aquifer are all important terms of the local water budget. With the exception of snow, all storage components have gravity responses of the same order of magnitude and are therefore relevant for gravity observations. The comparison of the total hydrological gravity response to the gravity residuals obtained from the SG, showed similarities in both short-term and seasonal dynamics. However, the results demonstrated the limitations of estimating total local WSC using hydrological point measurements. The results of the lysimeter-based approach showed that gravity residuals are caused to a larger extent by local WSC than previously estimated. A comparison of the results with other methods used in the past to correct temporal gravity observations for the local hydrological influence showed that the lysimeter measurements improved the independent estimation of WSC significantly and thus provided a better way of estimating the local hydrological gravity effect. In the context of hydrological noise reduction, at sites where temporal gravity observations are used for geophysical studies beyond local hydrology, the installation of a lysimeter in combination with complementary hydrological measurements is recommended. From the hydrological view point, using gravimeter data as a calibration constraint improved the model results in comparison to hydrological point measurements. Thanks to their capacity to integrate over different storage components and a larger area, gravimeters provide generalized information on total WSC at the field scale. Due to their integrative nature, gravity data must be interpreted with great care in hydrological studies. However, gravimeters can serve as a novel measurement instrument for hydrology and the application of gravimeters especially designed to study open research questions in hydrology is recommended.
Der Anstieg der Energiepreise kann zu einer länger anhaltenden Verteuerung von Gütertransporten führen. Welche Auswirkungen haben steigende Transportkosten auf die Entwicklung von Städtesystemen? Ein solcher Transportkostenanstieg hat in der Russischen Föderation nach der Preisliberalisierung 1992 real, d.h. in Relation zu den Preisen anderer Gütergruppen stattgefunden. Gleichzeitig stellt die Bevölkerungsstatistik der Russischen Föderation Daten bereit, mit deren Hilfe Hypothesen zur Entwicklung von Städtesystemen unter dem Einfluss steigender Transportkosten geprüft werden können. Diese Daten werden in der vorliegenden Arbeit umfassend ausgewertet. Den theoretischen Hintergrund liefert die Modellierung eines Städtesystems mit linearer Raumstruktur im Rahmen der Neuen Ökonomischen Geographie. Damit wird ein Werkzeug geschaffen, das auch auf weiträumige Städtesysteme mit ausgeprägter Bandstruktur angewendet werden kann. Die hier erstmals erfolgte ausführliche Erläuterung des zu Grunde liegenden Theorieansatzes versteht sich als Ergänzung der Standardlehrbücher der Raumwirtschaftstheorie. Die Ergebnisse der empirischen Untersuchung bestätigen die Prognose des Modells, dass in großflächigen Ländern bzw. Regionen mit Ähnlichkeit zur unterstellten Raumstruktur ein Anstieg der Transportkosten Konzentrationstendenzen in den Zentren befördert, während die peripheren Regionen zunehmend abgekoppelt werden.
Gegenstand der Studie ist die Evaluation eines kommunalen Sportprojekts. Die Forschungsarbeit entstand aus der wachsenden Erkenntnis heraus, dass es nicht mehr nur um die Entwicklung und Durchführung kommunaler oder sozialer Projekte geht, sondern zunehmend darauf ankommt, die Projektarbeit zu evaluieren, um ihren Einfluss auf die kommunale, soziale und personale Entwicklung zu prüfen und in der Folge die Implementierung zu optimieren. Die unterschiedlichen Schritte in der Definition des theoretischen Rahmens, der Datenanalyse sowie der Erarbeitung der evaluativen Empfehlungen wurden unternommen mit dem Anspruch auf Modellcharakter, um für zukünftige Evaluationsvorhaben entsprechende Standards zu setzen. Die Grundidee des kommunalen Sportprojekts „Straßenfußball für Toleranz“ ist innovativ: Mädchen und Jungen erobern durch gemeinsames Fußballspielen den öffentlichen Raum. Sie spielen ohne Schiedsrichter und nach speziellen Regeln. Das Projekt richtet sich ausdrücklich an sozial benachteiligte Jugendliche und bezieht gleichermaßen Jungen wie Mädchen ein.
Kenia erlangt Anfang der 1960er seine Unabhängigkeit und wird in der Folge von den Präsidenten Kenyatta und später Moi autoritär regiert. Als Konsequenz des internationalen und nationalen Druckes werden 1991 wieder Mehrparteienwahlen zugelassen. Die Hoffnungen auf einen Trendwechsel werden zunächst aber nicht erfüllt. Präsident Moi bleibt bei den Wahlen 1992 und 1997 siegreich und versucht jeden möglichen Reformprozess aufzuhalten bzw. zu verlangsamen. Mit dem neu gewählten Präsidenten Kibaki entsteht 2002 die Hoffnung auf Veränderung. Aber als alter Wegbegleiter Mois erfüllt Kibaki nicht die internationalen und nationalen Erwartungen. Moi und Kibaki organisieren jeweils kontra-demokratische Eliten hinter sich und nutzen das mächtige Präsidentenamt, die stärkste Institution im politischen System Kenias, um den Status quo so lange wie möglich zu erhalten. Die Parteien werden weder durch die Regierung noch durch die Opposition zu starken Institutionen transformiert und das unstete Verhalten der Geberländer vermag den Einfluss der autoritären Führung nicht dauerhaft einzuschränken.
Auf der Grundlage von Sonnenphotometermessungen an drei Messstationen (AWIPEV/ Koldewey in Ny-Ålesund (78.923 °N, 11.923 °O) 1995–2008, 35. Nordpol Driftstation – NP-35 (84.3–85.5 °N, 41.7–56.6 °O) März/April 2008, Sodankylä (67.37 °N, 26.65 °O) 2004–2007) wird die Aerosolvariabilität in der europäischen Arktis und deren Ursachen untersucht. Der Schwerpunkt liegt dabei auf der Frage des Zusammenhanges zwischen den an den Stationen gemessenen Aerosolparametern (Aerosol optische Dicke, Angström Koeffizient, usw.) und dem Transport des Aerosols sowohl auf kurzen Zeitskalen (Tagen) als auch auf langen Zeitskalen (Monate, Jahre). Um diesen Zusammenhang herzustellen, werden für die kurzen Zeitskalen mit dem Trajektorienmodell PEP-Tracer 5-Tage Rückwärtstrajektorien in drei Starthöhen (850 hPa, 700 hPa, 500 hPa) für die Uhrzeiten 00, 06, 12 und 18 Uhr berechnet. Mit Hilfe der nicht-hierarchischen Clustermethode k-means werden die berechneten Rückwärtstrajektorien dann zu Gruppen zusammengefasst und bestimmten Quellgebieten und den gemessenen Aerosol optischen Dicken zugeordnet. Die Zuordnung von Aerosol optischer Dicke und Quellregion ergibt keinen eindeutigen Zusammenhang zwischen dem Transport verschmutzter Luftmassen aus Europa oder Russland bzw. Asien und erhöhter Aerosol optischer Dicke. Dennoch ist für einen konkreten Einzelfall (März 2008) ein direkter Zusammenhang von Aerosoltransport und hohen Aerosol optischen Dicken nachweisbar. In diesem Fall gelangte Waldbrandaerosol aus Südwestrussland in die Arktis und konnte sowohl auf der NP-35 als auch in Ny-Ålesund beobachtet werden. In einem weiteren Schritt wird mit Hilfe der EOF-Analyse untersucht, inwieweit großskalige atmosphärische Zirkulationsmuster für die Aerosolvariabilität in der europäischen Arktis verantwortlich sind. Ähnlich wie bei der Trajektorienanalyse ist auch die Verbindung der atmosphärischen Zirkulation zu den Photometermessungen an den Stationen in der Regel nur schwach ausgeprägt. Eine Ausnahme findet sich bei der Betrachtung des Jahresganges des Bodendruckes und der Aerosol optischen Dicke. Hohe Aerosol optische Dicken treten im Frühjahr zum einen dann auf, wenn durch das Islandtief und das sibirische Hochdruckgebiet Luftmassen aus Europa oder Russland/Asien in die Arktis gelangen, und zum anderen, wenn sich ein kräftiges Hochdruckgebiet über Grönland und weiten Teilen der Arktis befindet. Ebenso zeigt sich, dass der Übergang zwischen Frühjahr und Sommer zumindest teilweise bedingt ist durch denWechsel vom stabilen Polarhoch im Winter und Frühjahr zu einer stärker von Tiefdruckgebieten bestimmten arktischen Atmosphäre im Sommer. Die geringere Aerosolkonzentration im Sommer kann zum Teil mit einer Zunahme der nassen Deposition als Aerosolsenke begründet werden. Für Ny-Ålesund wird neben den Transportmustern auch die chemische Zusammensetzung des Aerosols mit Hilfe von Impaktormessungen an der Zeppelinstation auf dem Zeppelinberg (474m ü.NN) nahe Ny-Ålesund abgeleitet. Dabei ist die positive Korrelation der Aerosoloptischen Dicke mit der Konzentration von Sulfationen und Ruß sehr deutlich. Beide Stoffe gelangen zu einem Großteil durch anthropogene Emissionen in die Atmosphäre. Die damit nachweisbar anthropogen geprägte Zusammensetzung des arktischen Aerosols steht im Widerspruch zum nicht eindeutig herstellbaren Zusammenhang mit dem Transport des Aerosols aus Industrieregionen. Dies kann nur durch einen oder mehrere gleichzeitig stattfindende Transformationsprozesse (z. B. Nukleation von Schwefelsäurepartikeln) während des Transportes aus den Quellregionen (Europa, Russland) erklärt werden.
Obwohl Privatisierung in den letzten Jahren und Jahrzehnten ein Kernthema nicht nur der rechtswissenschaftlichen Debatte gewesen ist, wurde der Bereich der Privatisierung des Maßregelvollzugs nach §§ 63, 64 StGB, § 7 JGG sowie der Aufgaben nach §§ 81, 126a StPO insoweit vernachlässigt. Vor dem Hintergrund hauptsächlich fiskalischer Erwägungen und den Möglichkeiten einer Flucht aus dem Beamten- und dem Haushaltsrecht geraten zunehmend auch solche Bereiche in den Blickpunkt von Privatisierungsüberlegungen, die bisher selbstverständlich dem Bereich staatlicher Tätigkeit zugerechnet werden. Der Staat versteht sich zunehmend als Gewährleistungsstaat, der staatliche Aufgaben nicht mehr eigenhändig erfüllt, sondern sich hierfür der Leistung Dritter bedient. Bislang wurden der Maßregelvollzug nach §§ 63, 64 StGB und § 7 JGG sowie die Unterbringung zur Beobachtung des Beschuldigten nach § 81 StPO und die einstweilige Unterbringung nach § 126a StPO durch den Staat in den (staatlichen) Landeskliniken vollzogen. Auf der im Jahr 2004 eingeführten Rechtsgrundlage des § 36 Abs. 3 S. 2 und S. 5 BbgPsychKG entwickelte das Land Brandenburg ein Modell, um die Durchführung der genannten Aufgaben zu privatisieren, und gliederte die Landeskliniken im Jahr 2006 aus der Landesverwaltung aus. Der Autor untersucht die verfassungsrechtliche Zulässigkeit dieses Privatisierungsvorhabens in formeller und materieller Hinsicht. Eine Besonderheit der Veröffentlichung besteht darin, dass die Arbeit konkrete Aussagen zur Ausgestaltung des Regel-Ausnahme-Verhältnisses des Funktionsvorbehalts nach Art. 33 Abs. 4 GG enthält. Daran fehlte es bislang. Daneben untersucht der Autor einfachgesetzliche Grenzen für Privatisierungen des Maßregellzugs nach §§ 63, 64 StGB, § 7 JGG und der Aufgaben nach §§ 81, 126a StPO sowie solche Privatisierungsgrenzen, die sich aus internationalen Menschenrechtsstandards ergeben.
Der Arbeitskreis Militär und Gesellschaft in der Frühen Neuzeit e. V. wurde im Frühjahr 1995 gegründet. Er hat es sich zur Aufgabe gemacht, die Erforschung des Militärs im Rahmen der frühneuzeitlichen Geschichte zu befördern und zugleich das Bewusstsein der Frühneuzeit-HistorikerInnen für die Bedeutung des Militärs in all seinen Funktionen zu wecken. Das Militär steht somit als soziale Gruppe selbst im Mittelpunkt der Aktivitäten des Arbeitskreises, wird aber auch in seinen Wirkungen und Repräsentationen thematisiert. Ziel ist es, die Rolle des Militärs als Teil der frühneuzeitlichen Gesellschaft umfassend herauszuarbeiten und zu würdigen. Insofern versteht der AMG seine Arbeit nicht nur als Beitrag zur Militärgeschichte, sondern vor allem als Beitrag zur Geschichte der Frühen Neuzeit insgesamt. Der Arbeitskreis bietet ein Diskussions- und Informationsforum durch die Organisation von Tagungen, die Herausgabe der Schriftenreihe ‚Herrschaft und soziale Systeme in der Frühen Neuzeit‘, die Zeitschrift ‚Militär und Gesellschaft in der Frühen Neuzeit‘ und die Mailingliste mil-fnz.
Kriegsbericht oder Gaukeley?
(2010)
Das Erkenntnisziel der Analyse der Vermögenslage ist die Gewinnung von Informationen über das Vermögen eines Unternehmens und seine Investitionstätigkeiten. In dieser Arbeit stellt das Definitionssystem der Jahresabschlussanalyse (in der Fachliteratur auch Bilanzanalyse genannt) die theoretische Grundlage für die statistische Analyse der Vermögenslage in der Gesamtheit öffentlicher Unternehmen dar. Die Vermögenslage wird mit Hilfe der aus der Bilanz ablesbaren Kennzahlen analysiert. Dabei stellen die Posten der Bilanz ursprüngliche Merkmale dar, auf deren Grundlage die zu untersuchenden Merkmale – Kennzahlen der Vermögenslage gebildet werden. Da die Heterogenität öffentlicher Unternehmen die Vergleichbarkeit der untersuchten Kennzahlen erschwert, stellt die Aufbereitung der Bilanz (Bildung der Strukturbilanz) in diesem Zusammenhang einen wichtigen Zwischenschritt in der Analyse dar, der allerdings schon dem Wirtschaftsprüfer erhebliche Kopfschmerzen bereiten kann, geschweige dem Statistiker. Eine einheitliche Strukturbilanz soll die Vergleichbarkeit der Bilanzkennzahlen gewähren. Die Vorgehensweise bei der Aufbereitung der Bilanz für eine Strukturbilanz wird in der Fachliteratur nicht eindeutig festgelegt. Die fachlichen Beiträge dort bestehen überwiegend aus Hinweisen und Empfehlungen zum Vorgehen in einzelnen Untenehmen, was natürlich gut nachzuvollziehen ist, da jedes Unternehmen eine eigene Spezifik hat. An dieser Stelle muss jedoch ein Statistiker, der sich weniger mit den einzelnen Fällen beschäftigt, sondern die Massenphänomene untersucht, auf eine einheitliche Variante der Bilanzaufbereitung zurückgreifen. Auf die Besonderheiten der Datenaufbereitung für öffentliche Unternehmen und die Bildung der Strukturbilanz soll an dieser Stelle nicht eingegangen werden. In dem folgenden Abschnitt werden die zu untersuchenden Merkmale - Kennzahlen der Vermögenslage definiert. Diesem schließt sich der Abschnitt mit den empirischen Ergebnissen an. Die Berechnungen wurden sowohl für die ganze Grundgesamtheit öffentlicher Unternehmen als auch an einigen Stellen für ihre einzelnen Klassen durchgeführt.
Steuern in Fragilen Staaten
(2010)
Fragile states are characterized by institutions which do not have the political will or ability to reduce poverty in the interests of their citizen, to establish basic social security, to promote a successful development process, and to guarantee security and human rights. The regional disintegration processes after the period of imperialism and the fall of the iron curtain have created many new states, which still are politically unstable and unable for a sustainable development. In the literature such states are describes as "weak", "failing or failed", "collapsed", "conflict or post-conflict" - dependant on the extent of the particular state failure. Several indicators try to describe such states and partly allow for projections of the future development. Then the role of taxation is discussed in detail before recommendations for the development cooperation are presented. Obviously taxation plays a key role for the democratization process in fragile states.
Die gesundheitsfördernden Eigenschaften von grünem Tee sind weitgehend akzeptiert. Den Teecatechinen, insbesondere dem Epigallocatechin-3-gallat (EGCG), werden zahlreiche positive Effekte zugesprochen (z. B. antioxidativ, antikanzerogen, antiinflammatorisch, Blutdruck und Cholesterinspiegel senkend). Die Mechanismen, die zu einer Reduktion der in Tierversuchen beschriebenen Körper- und Fettmasse führen, sind nicht ausreichend geklärt. Ziel dieser Arbeit bestand darin, die kurz- und mittelfristigen Wirkungen einer TEAVIGO®-Applikation (mind. 94 % EGCG) am Mausmodell im Hinblick auf den Energie- und Fettstoffwechsel sowie die Expression daran beteiligter Gene in wichtigen Organen und Geweben zu untersuchen. In verschiedenen Tierversuchen wurde männlichen C57BL/6-Mäusen eine Hochfettdiät (HFD) mit und ohne Supplementation (oral, diätetisch) des entkoffeinierten Grüntee-Extraktes TEAVIGO® in unterschiedlichen Dosierungen gefüttert. Es wurden sowohl kurz- als auch mittelfristige Wirkungen des EGCG auf die Energiebilanz (u. a. indirekte Tierkalorimetrie) und Körperzusammensetzung (NMR) sowie die exogene Substratoxidation (Stabilisotopentechnik: Atemtests, Inkorporation natürlicher 13C-angereicherter Triglyceride aus Maiskeimöl in diverse Organe/Gewebe) und Gen-expression (quantitative real-time PCR) untersucht. Die Applikationsform und ihre Dauer riefen unterschiedliche Wirkungen hervor. Mäuse mit diätetischer Supplementation zeigten bereits nach kurzer Zeit eine verminderte Körperfettmasse, die bei weiterer Verabreichung auch zu einer Reduktion der Körpermasse führte. Beide Applikationsformen resultieren, unabhängig von der Dauer der Intervention, in einer erhöhten Energieausscheidung, während die Futter- und Energieaufnahme durch EGCG nicht beeinflusst wurden. Der Energieverlust war von einer erhöhten Fett- und Stickstoffausscheidung begleitet, deren Ursache die in der Literatur beschriebene Interaktion und Hemmung digestiver Enzyme sein könnte. Besonders unter postprandialen Bedingungen wiesen EGCG-Mäuse erniedrigte Triglycerid- und Glycogengehalte in der Leber auf, was auf eine eingeschränkte intestinale Absorption der Nährstoffe hindeutet. Transkriptanalysen ergaben im Darm eine verminderte Expression von Fettsäuretransportern, während die Expression von Glucosetransportern durch EGCG erhöht wurde. Weiterhin reduzierte EGCG, nach Umstellung von Standard- auf eine maiskeimölhaltige Hochfettdiät, die Inkorporation natürlicher 13C-angereicherter Triglyceride in diverse Organe und Gewebe – insbesondere Leber, viszerales und braunes Fettgewebe sowie Skelettmuskel. Die Analyse der 13C-Anreicherung im Atem der Mäuse und die Energieumsatzmessungen ergaben nach kurzer Applikation eine erhöhte Fettoxidation, die im weiteren Verlauf der Intervention auf eine erhöhte Kohlenhydratoxidation umgeschaltet wurde. Weiterhin war die orale Applikation von EGCG bei gleichzeitiger Fütterung einer Hochfettdiät von makroskopischen und mikroskopischen degenerativen Veränderungen der Leber begleitet. Diese Effekte wurden nach diätetischer Supplementation der Hochfettdiät mit EGCG nicht beobachtet. Zusammenfassend zeigen die Ergebnisse, dass die Körpergewichts- und Fettgewebs-abnahme durch diätetisches EGCG sich durch eine herabgesetzte Verdaulichkeit der Nahrung erklären lässt. Dies führte zu verschiedenen kurz- und mittelfristigen Veränderungen in der Fettverteilung und im Fettmetabolismus.
Der Beitrag erinnert an das wechselvolle Leben des Friedensnobelpreisträgers Henry Dunant, sucht nach biografischen Wurzeln seines von Menschlichkeit und Würde getragenen Verhaltens und macht auf seine Leistungen aufmerksam. Er will aber auch die Frage nach der Bedeutung des humanitären Völkerrechts im Verhältnis von Krieg und Frieden nicht außer Acht lassen.