Refine
Has Fulltext
- yes (460) (remove)
Year of publication
- 2010 (460) (remove)
Document Type
- Article (149)
- Doctoral Thesis (83)
- Monograph/Edited Volume (72)
- Postprint (49)
- Review (27)
- Conference Proceeding (25)
- Part of Periodical (18)
- Preprint (16)
- Master's Thesis (10)
- Working Paper (5)
Language
- German (287)
- English (156)
- Multiple languages (8)
- Spanish (8)
- French (1)
Keywords
- Deutschland (19)
- Germany (19)
- Poland (18)
- Polen (18)
- Integration (17)
- Consolidation (15)
- European Union (15)
- Europäische Union (15)
- Vertiefung (15)
- Humboldt und Hispanoamerika (5)
Institute
- WeltTrends e.V. Potsdam (43)
- Institut für Jüdische Studien und Religionswissenschaft (35)
- Vereinigung für Jüdische Studien e. V. (33)
- Wirtschaftswissenschaften (31)
- Kommunalwissenschaftliches Institut (30)
- MenschenRechtsZentrum (30)
- Historisches Institut (27)
- Extern (25)
- Department Linguistik (22)
- Institut für Informatik und Computational Science (22)
- Institut für Romanistik (21)
- Hasso-Plattner-Institut für Digital Engineering gGmbH (19)
- Institut für Biochemie und Biologie (18)
- Institut für Geowissenschaften (18)
- Institut für Mathematik (16)
- Institut für Künste und Medien (13)
- Institut für Physik und Astronomie (13)
- Mathematisch-Naturwissenschaftliche Fakultät (12)
- Sozialwissenschaften (9)
- Institut für Umweltwissenschaften und Geographie (7)
- Institut für Chemie (5)
- Institut für Ernährungswissenschaft (5)
- Institut für Germanistik (5)
- Strukturbereich Kognitionswissenschaften (5)
- Department Psychologie (4)
- Department Sport- und Gesundheitswissenschaften (4)
- Institut für Religionswissenschaft (4)
- Referat für Presse- und Öffentlichkeitsarbeit (4)
- Department Erziehungswissenschaft (3)
- Institut für Anglistik und Amerikanistik (3)
- Institut für Philosophie (3)
- Sonderforschungsbereich 632 - Informationsstruktur (3)
- Zentrum für Lehrerbildung und Bildungsforschung (ZeLB) (3)
- Humanwissenschaftliche Fakultät (2)
- Institut für Slavistik (2)
- Strafrecht (2)
- Öffentliches Recht (2)
- Department Grundschulpädagogik (1)
- Dezernat 2: Studienangelegenheiten (1)
- Interdisziplinäres Zentrum für Dynamik komplexer Systeme (1)
- Verband für Patholinguistik e. V. (vpl) (1)
A pesar de que Chile no estuvo incluido en el viaje sudamericano de Alejandro de Humboldt, dada la preferencia del naturalista prusiano por escenario tropical, su presencia se hizo evidente durante el siglo XIX. Aquí, en particular, se analiza lo anterior a partir de dos esferas: la figura de Alejandro de Humboldt y la ciencia humboldtiana en Chile. Por un lado, se analizan las formas de apropiación que la ciencia hizo de la obra de Humboldt durante el siglo XIX. En otro aspecto, se analiza a Alejandro de Humboldt como esfera de legitimación para la propia intelectualidad chilena decimonónica. Desde esta perspectiva se comentan las formas a partir de las cuales el nombre del autor berlinés fue instalado en las discusiones y circuitos ilustrados chilenos.
Die Umsetzung theoretisch fundierter Besteuerungsprinzipien in die Praxis hat seit längerer Zeit einen prominenten Platz in der finanzwissenschaftlichen Forschung. Dabei besteht kein Zweifel, dass es ein größeres Interesse daran gibt, nicht nur theoretisch fundierte Prinzipien abzuleiten, sondern diese auch auf ihre Anwendbarkeit zu prüfen. Dieses Interesse an der optimalen Ausgestaltung eines Steuersystems in der Praxis wurde mit dem Zusammenbruch der sozialistischen Planwirtschaften in den 1990er Jahren nochmals verstärkt. Im Rahmen dieser umfassenden Transformationsprozesse ist es unabdingbar, dass die Wirtschaftsentwicklung über ein leistungsfähiges Steuersystem finanziert wird. Die zu erhebenden Steuern haben einen unmittelbaren Einfluss auf die ökonomischen Entscheidungen wie beispielsweise in Form eines Konsumverzichts. Darüber hinaus entstehen Zusatzlasten der Besteuerung (excess burden), wenn vergleichbare ökonomische Aktivitäten unterschiedlich besteuert werden und damit etwa der Konsum bestimmter Güter, eine bestimmte Investitionsart oder der Einsatz eines bestimmten Produktionsfaktors diskriminiert wird. Aus den Substitutionseffekten, die durch die Veränderungen der relativen Preise hervorgerufen werden, resultieren letztendlich über die Zahllast hinausgehende Nutzenverluste bei den Wirtschaftssubjekten. Dadurch werden die ökonomischen Konsum-/Sparentscheidungen verzerrt (Besteuerung der Kapitaleinkommen), das Leistungsangebot vermindert (Besteuerung der Arbeitseinkommen), Produktionsfaktoren umgelenkt oder Investitions- und Finanzierungsentscheidungen verzerrt (Unternehmenssteuer). Somit kann durch Steuern bzw. durch ihre unangemessene Ausgestaltung ein gesamtwirtschaftlicher Effizienzverlust verursacht werden. Gerade in Transformationsländern wie Georgien war mit Beginn der Transformationsphase de facto kein steuerpolitisches Know-how vorhanden, so dass eine enorme Nachfrage nach Beratung bestand und letztendlich der größte Teil der verabschiedeten Steuerreformen ein Ergebnis externer Beratung war. Ein erstes Ziel der Arbeit ist die Erstellung einer theoretischen Basis, um die einzelnen Steuerreformphasen besser zu verstehen. Ein zweites Ziel liegt in die Ableitung eines theoretisch fundierten Referenzrahmens (Benchmark) für die Beurteilung des Status quo sowie der Ausgestaltung der Einkommens- und Gewinnbesteuerung in Georgien. Die Ableitung von Benchmarks gilt dabei als ein eigenständiges Ziel wissenschaftlicher Forschung. Im Rahmen dieser Arbeit dienen die Benchmarks jedoch als Beurteilungsmaßstab für die Evaluation der Steuerreformen in Georgien sowie für die Evaluation des hier erarbeiteten konkreten Reformvorschlags. Ein drittes Ziel der vorliegenden Arbeit ist also in der konzeptionellen Ausgestaltung der Einkommens- und Gewinnbesteuerung in Georgien und deren konsequenten Ausrichtung an einem international anerkannten lebenszeitlichen bzw. konsumorientierten Leitbild der Besteuerung zu sehen. Im Rahmen dieser Arbeit wurde ein Entwurf für eine integrierte Einkommens- und Gewinnsteuer (Einfachsteuer) entwickelt, der den lokalen gesellschaftlichen Gegebenheiten optimal angepasst ist. Bei der Ausarbeitung eines entsprechenden Konzeptes für Georgien war zu berücksichtigen, dass die Effizienz reduzierenden Allokationsverzerrungen in diesen Systemen minimiert und die Belastung der Löhne und Gewinne durch Steuern auf ein angemessenes Niveau begrenzt werden sollten, um negative Anreizwirkungen in Bezug auf das Wirtschaftswachstum so gering wie möglich zu halten. Neben einer integrierten Einkommens- und Gewinnbesteuerung spielten dabei eine einheitliche Gewinnermittlung für Unternehmen (modifiziertes Kassenprinzip) sowie eine am Kassenprinzip orientierte Mehrwertsteuer eine besondere Rolle. Einkommen- und Mehrwertsteuerentwürfe erfüllen alle Neutralitätskriterien (Neutralität der intertemporalen Konsum- und Ersparnisbildung, Rechtsformneutralität, Investitionsneutralität in Bezug auf Human- und Sachkapital, Finanzierungsneutralität sowie Inflationsneutralität). Nach der Definition der Bemessungsgrundlagen für die Einzelsteuern und deren Anpassung an georgische Gegebenheiten war es notwendig, die technischen Einzelheiten für die Steuerverwaltung (Durchführungsverordnungen) und teilweise die zugehörigen Steuerformulare zu entwickeln. Diese müssen alle notwendigen Variablen der Veranlagungsverfahren erfassen und eindeutige Identifikationsmöglichkeiten für die Haushalte und Unternehmen bieten, was eine wichtige Rolle für die spätere Mikrosimulation spielt. Die gewonnenen Erkenntnisse dieser Arbeit sollen die politischen Entscheidungsträger bei der Auswahl eines geeigneten Reformvorschlages für das Einkommensteuergesetz unterstützen.
Im Zusammenhang mit einer geplanten Wiederveröffentlichung des Bandes Die Jugendbriefe Alexander von Humboldts 1787-1799 durch den Akademie Verlages im Andenken an die kürzlich verstorbene Mitherausgeberin Ilse Jahn sollen in loser Folge bisher unpublizierte Briefe aus der Jugendzeit Alexander von Humboldts in der Rubrik Von Humboldts Hand erscheinen. Der folgende Brief Alexander von Humboldts an den Göttinger Arzt Christoph Girtanner steht am Anfang dieser Reihe, welche sukzessive versucht, neuere Erkenntnisse der Alexander-von-Humboldt-Forschungsstelle in Bezug auf die Jugendbriefe zu publizieren. Das Schreiben, welches zur so genannten Berlinka-Sammlung der Biblioteka Jagiellońska in Krakau gehört, gelangte während des Zweiten Weltkrieges nach Polen, und ist der Forschungsstelle vor einiger Zeit zugänglich gemacht worden. Editorisch werden sich die in dieser Rubrik erscheinenden Briefe Humboldts in den bestehenden Band der Jugendbriefe von 1973 einfügen.
Der Beitrag setzt sich mit der halachischen Bedeutung von Dtn. 6,18 im Kontext der heutigen Zeit auseinander.
Der Vergleich mit Humboldts Tagebüchern bietet Aufschlüsse über die für Humboldt typische Arbeitsweise und die Wege seines Wissenserwerbs. Seine eigenen Beobachtungen während des Aufenthaltes in Mexiko sind ergänzt durch persönliche Kontakte vor Ort, durch Literatur- und Archivstudien in Mexiko und nach der Rückkehr in europäischen Archiven. So hat er beispielsweise die Pyramiden von Teotihuacan nicht besucht, aber die Beschreibung aus einem Brief von Juan José de Oteyza, den er am Real Seminario de Minería in Mexiko-Stadt kennengelernt hatte, in seine Publikation aufgenommen. Auch einzelne Tafeln stellen mexikanische Altertümer dar, die Humboldt nicht selbst besichtigt hat. Im Vortrag werden einige Quellen der „Vues des Cordillères“ aus Humboldts Tagebüchern vorgestellt, wie z. B. Beschreibungen seiner Exkursionen in Mexiko aus den von der Alexander-von-Humboldt-Forschungsstelle publizierten Bänden und bisher unedierte Notizen seiner Studien im Archiv des Vatikans im Sommer 1805.
Über die Autoren
(2010)
Über die Autoren
(2010)
Zwischen Thron und Ballotage
(2010)
Seit dem Zusammenbruch der Sowjetunion kamen in diesem Raum neue Migrationsprozesse wie die Arbeitsmigration zwischen den südlichen GUS-Republiken und Russland, aber auch grenzüberschreitende Bevölkerungsbewegungen ethnischer Gruppen in ihre „historischen Herkunftsgebiete“ auf. Die in der vorliegenden Arbeit untersuchten, dynamischen Wanderungsprozesse von Kasachen zwischen der Mongolei und Kasachstan weisen Kennzeichen dieses Migrationstypus, aber auch einige Besonderheiten auf. Die vorliegende Arbeit hat längere Forschungsaufenthalte in Kasachstan und der Mongolei von 2006 bis 2009 zur Grundlage. Aus der Mongolei stammende kasachische Migranten im Umland von Almaty und Kasachen im westlichsten aymag der Mongolei, Bayan-Ölgiy, wurden mittels quantitativer und qualitativer Methoden empirischer Sozialforschung befragt. Ergänzend wurden in beiden Staaten Befragungen von Experten aus gesellschaftlichen, wissenschaftlichen und politischen Institutionen durchgeführt, um eine möglichst ausgeglichene Sicht auf die postsowjetischen Migrations- und Inkorporationsprozesse zwischen beiden Staaten sicherzustellen. Zwischen den Migranten in Kasachstan und ihren – noch bzw. wieder – in der Mongolei lebenden Verwandten haben sich in den letzten Jahrzehnten enge soziale Netzwerke entwickelt. Die Aufrechterhaltung der Bindungen wird durch eine Verbesserung der Transport- und Kommunikationsmöglichkeiten zwischen beiden Staaten gefördert. Zirkuläre Migrationsmuster, regelmäßige Besuche und Telefongespräche sowie grenzüberschreitende sozioökonomische Unterstützungsmechanismen haben sich insbesondere in den vergangenen Jahren intensiviert. Diese Interaktionen sind im Kontext der rechtlichen, politischen und wirtschaftlichen Bedingungen im Migrationssystem Mongolei-Kasachstan – und insbesondere in Wechselwirkung mit der staat¬lichen Migrations- und Inkorpora-tionspolitik – einzuordnen. Die Erkenntnisse der vorliegenden Untersuchung lassen sich in aller Kürze so zusammenfassen: (I) Die in sozialen Netzwerken organisierten Interaktionen der Kasachen aus der Mongolei weisen Merkmale von, aber auch Unterschiede zu Konzepten des Transnationalismus-Ansatzes auf. (II) Die sozialen Bindungen zwischen Verwandten generieren Sozialkapital und tragen zur alltäglichen Unterstützung bei. (III) Die lokalen und grenzüberschreitenden Aktivitäten der Migranten sind als Strategien der sozioökonomischen Eingliederung zu deuten. (IV) Ein wesentlicher Teil der aus der Mongolei stammenden Kasachen artikuliert von der Mehrheitsbevölkerung abweichende, hybride Identifikationsmuster, die die politischen Eliten in Kasachstan bisher zu wenig wahrnehmen.
Ausgehend von der These, dass kommunale Unternehmen gerade in strukturschwachen Regionen eine besondere politische und wirtschaftliche Bedeutung besitzen, wird die Entwicklung der kommunalen Wirtschaft im Land Brandenburg untersucht. Die Autoren bereiten dazu in einer Längsschnittanalyse nicht unmittelbar dazu abrufbare Daten der öffentlichen Statistik auf und untersetzen die statistische Analyse durch eine Einzelfallstudie. Im Ergebnis wird deutlich, dass Entscheidungen über Privatisierungen oder Kommunalisierungen keinen „Sachgesetzlichkeiten“ folgen, sondern politisch in Abhängigkeit von Situationsinterpretationen, Denkstilen, Macht- und Interessenkonstellationen getroffen werden. Die Offenheit der Entscheidung über die Zukunft der kommunalen Wirtschaft verweist damit auf politischen Handlungsspielraum und die politische Verantwortung für Ausbau, Erhalt oder Privatisierung kommunaler Unternehmen.
Ghana ist ein Musterbeispiel dafür, dass ein Entwicklungsland den Weg zu Good Governance schaffen kann. In vielen Studien wird dem Land im afrikanischen Vergleich heute bescheinigt, hier ein Vorreiter zu sein. Dies ist Ausgangslage der vorliegenden Studie, die der Frage nachgeht „Welche Gründe, Muster und Bedingungen führen zur Entstehung von Good Governance?“. Im Zentrum der vorliegenden Studie steht, wie aus der erkenntnisleitenden Fragestellung hervorgeht, eine empirische Untersuchung zur Entstehung von Good Governance und damit ein Transformationsprozess. Dieser wird bewusst über einen sehr langen Zeitraum (über ein halbes Jahrhundert) untersucht, um auch langfristige Entwicklungen einbeziehen zu können. Die Studie wird mit Hilfe eines „Mixed-Methods-Ansatzes“ sowohl unter Rückgriff auf quantitative als auch auf qualitative Methoden durchgeführt, was sich im Rückblick als sehr ertragreich erwiesen hat. Zunächst wird die Qualität der Governance über den gesamten Zeitraum anhand von sechs Indikatoren gemessen. Danach werden qualitativ die Gründe für die Fort- und Rückschritte analysiert. Dabei lassen sich immer wieder Systematiken herausarbeiten, wie zum Beispiel zirkuläre Entwicklungen, die über viele Jahre den Weg hin zu Good Governance verhinderten, bis jeweils Ausbrüche aus den Kreisläufen geschafft werden konnten. Sowohl in der demokratischen und rechtsstaatlichen Entwicklung als auch bezogen auf die Versorgung der Bevölkerung mit öffentlichen Gütern und die wirtschaftliche Entwicklung. Auch wenn die verschiedenen Bereiche von Good Governance zunächst einzeln untersucht werden, so zeigen sich gleichzeitig deutlich die Wechselwirkungen der Komponenten. Zum Beispiel kristallisiert sich klar heraus, dass Rechtsstaatlichkeit sowohl auf die Stabilität politischer Systeme wirkt, als auch auf die wirtschaftliche Entwicklung. Ebenso beeinflussen diese wiederum die Korruption. Ähnliche Verknüpfungen lassen sich auch bei allen anderen Bereichen nachvollziehen. Die Entwicklung eines Landes kann also nur unter Berücksichtigung eines komplexen Governance-Systems verstanden und erklärt werden. Dabei können die Wechselwirkungen entweder konstruktiv oder destruktiv sein. Die Verflechtungen der einzelnen Bereiche werden in einem Negativ- und dann in einem Positiv-Szenario festgehalten. Diese Idealtypen-Bildung spitzt die Erkenntnisse der vorliegenden Arbeit zu und dient dem analytischen Verständnis der untersuchten Prozesse. Die Untersuchung zeigt, wie Good Governance über das Zusammenspiel verschiedener Faktoren entstehen kann und dass es wissenschaftlich sehr ertragreich ist, Transformationsforschung auf ein komplexes Governance-System auszuweiten. Hierbei werden die vielen empirisch erarbeiteten Ergebnisse zu den einzelnen Transformationen zu komplexen, in sich greifenden Gesamtszenarien zusammengeführt. Da es bisher keine explizite Good Governance-Transformationsforschung gab, wurde hiermit ein erster Schritt in diese Richtung getan. Es wird darüber hinaus deutlich, dass eine Transformation zu Good Governance nicht durch eine kurzfristige Veränderung der Rahmenbedingungen zu erreichen ist. Es geht um kulturelle Veränderungen, um Lernprozesse, um langfristige Entwicklungen, die in der Studie am Beispiel Ghana analysiert werden. In vielen vorangegangenen Transformationsstudien wurde diese zeitliche Komponente vernachlässigt. Ghana hat bereits viele Schritte getan, um einen Weg in die Zukunft und zu Good Governance zu finden. Die Untersuchung dieser Schritte ist Kern der vorliegenden Arbeit. Der Weg Ghanas ist jedoch noch nicht abgeschlossen.
In dieser Arbeit wurden die Möglichkeiten und Grenzen für Zirkulardichroismus-Messungen mit Synchrotronstrahlung untersucht. Dazu wurde ein Messaufbau für Zirkulardichroismus-Messungen an zwei Strahlrohren am Berliner Elektronenspeicherring für Synchrotronstrahlung eingesetzt, die für Messungen im Bereich des ultravioletten Lichts geeignet sind. Eigenschaften der Strahlrohre und des Messaufbau wurden in einigen wichtigen Punkten mit kommerziellen Zirkulardichroismus-Spektrometern verglichen. Der Schwerpunkt lag auf der Ausdehnung des zugänglichen Wellenlängenbereichs unterhalb von 180 nm zur Untersuchung des Zirkulardichroismus von Proteinen in diesem Bereich. In diesem Bereich ist es nicht nur die Lichtquelle sondern vor allem die Absorption des Lichts durch Wasser, die den Messbereich bei der Messung biologischer Proben in wässriger Lösung einschränkt. Es wurden Bedingungen gefunden, unter denen der Messbereich auf etwa 160 nm, in einigen Fällen bis auf 130 nm ausgedehnt werden konnte. Dazu musste die Pfadlänge deutlich reduziert werden und verschieden Probenküvetten wurden getestet. Der Einfluss der dabei auftretenden Spannungsdoppelbrechung in den Probenküvetten auf das Messsignal konnte mit einem alternativen Messaufbau deutlich reduziert werden. Systematische Fehler im Messsignal und auftretende Strahlenschäden begrenzen jedoch die Zuverlässigkeit der gemessenen Spektren. Bei Proteinfilmen schränkt die Absorption von Wasser den Messbereich kaum ein. Es wurden jedoch meist deutliche Unterschiede zwischen den Spektren von Proteinfilmen und den Spektren von Proteinen in wässriger Lösung festgestellt. Solange diese Unterschiede nicht minimiert werden können, stellen Proteinfilme keine praktikable Alternative zu Messungen in wässriger Lösung dar.
rezensiertes Werk: Schwartz, Yigal: Maamin beli Kenessija : 4 Massot al Aharon Appelfeld. - Tel Aviv : Dvir, 2009.- 181 S.
rezensiertes Werk: Shraibman, Yechiel: Sieben Jahre und sieben Monate : meine Bukarester Jahre ; Roman. - Berlin : be.bra, 2009. - 272 S. ISBN 978-3-937233-56-7
We introduce a simple approach extending the input language of Answer Set Programming (ASP) systems by multi-valued propositions. Our approach is implemented as a (prototypical) preprocessor translating logic programs with multi-valued propositions into logic programs with Boolean propositions only. Our translation is modular and heavily benefits from the expressive input language of ASP. The resulting approach, along with its implementation, allows for solving interesting constraint satisfaction problems in ASP, showing a good performance.
Die gesundheitsfördernden Eigenschaften von grünem Tee sind weitgehend akzeptiert. Den Teecatechinen, insbesondere dem Epigallocatechin-3-gallat (EGCG), werden zahlreiche positive Effekte zugesprochen (z. B. antioxidativ, antikanzerogen, antiinflammatorisch, Blutdruck und Cholesterinspiegel senkend). Die Mechanismen, die zu einer Reduktion der in Tierversuchen beschriebenen Körper- und Fettmasse führen, sind nicht ausreichend geklärt. Ziel dieser Arbeit bestand darin, die kurz- und mittelfristigen Wirkungen einer TEAVIGO®-Applikation (mind. 94 % EGCG) am Mausmodell im Hinblick auf den Energie- und Fettstoffwechsel sowie die Expression daran beteiligter Gene in wichtigen Organen und Geweben zu untersuchen. In verschiedenen Tierversuchen wurde männlichen C57BL/6-Mäusen eine Hochfettdiät (HFD) mit und ohne Supplementation (oral, diätetisch) des entkoffeinierten Grüntee-Extraktes TEAVIGO® in unterschiedlichen Dosierungen gefüttert. Es wurden sowohl kurz- als auch mittelfristige Wirkungen des EGCG auf die Energiebilanz (u. a. indirekte Tierkalorimetrie) und Körperzusammensetzung (NMR) sowie die exogene Substratoxidation (Stabilisotopentechnik: Atemtests, Inkorporation natürlicher 13C-angereicherter Triglyceride aus Maiskeimöl in diverse Organe/Gewebe) und Gen-expression (quantitative real-time PCR) untersucht. Die Applikationsform und ihre Dauer riefen unterschiedliche Wirkungen hervor. Mäuse mit diätetischer Supplementation zeigten bereits nach kurzer Zeit eine verminderte Körperfettmasse, die bei weiterer Verabreichung auch zu einer Reduktion der Körpermasse führte. Beide Applikationsformen resultieren, unabhängig von der Dauer der Intervention, in einer erhöhten Energieausscheidung, während die Futter- und Energieaufnahme durch EGCG nicht beeinflusst wurden. Der Energieverlust war von einer erhöhten Fett- und Stickstoffausscheidung begleitet, deren Ursache die in der Literatur beschriebene Interaktion und Hemmung digestiver Enzyme sein könnte. Besonders unter postprandialen Bedingungen wiesen EGCG-Mäuse erniedrigte Triglycerid- und Glycogengehalte in der Leber auf, was auf eine eingeschränkte intestinale Absorption der Nährstoffe hindeutet. Transkriptanalysen ergaben im Darm eine verminderte Expression von Fettsäuretransportern, während die Expression von Glucosetransportern durch EGCG erhöht wurde. Weiterhin reduzierte EGCG, nach Umstellung von Standard- auf eine maiskeimölhaltige Hochfettdiät, die Inkorporation natürlicher 13C-angereicherter Triglyceride in diverse Organe und Gewebe – insbesondere Leber, viszerales und braunes Fettgewebe sowie Skelettmuskel. Die Analyse der 13C-Anreicherung im Atem der Mäuse und die Energieumsatzmessungen ergaben nach kurzer Applikation eine erhöhte Fettoxidation, die im weiteren Verlauf der Intervention auf eine erhöhte Kohlenhydratoxidation umgeschaltet wurde. Weiterhin war die orale Applikation von EGCG bei gleichzeitiger Fütterung einer Hochfettdiät von makroskopischen und mikroskopischen degenerativen Veränderungen der Leber begleitet. Diese Effekte wurden nach diätetischer Supplementation der Hochfettdiät mit EGCG nicht beobachtet. Zusammenfassend zeigen die Ergebnisse, dass die Körpergewichts- und Fettgewebs-abnahme durch diätetisches EGCG sich durch eine herabgesetzte Verdaulichkeit der Nahrung erklären lässt. Dies führte zu verschiedenen kurz- und mittelfristigen Veränderungen in der Fettverteilung und im Fettmetabolismus.
Wie interpretieren Kinder nur? : Experimentelle Untersuchungen zum Erwerb von Informationsstruktur
(2010)
Im Zentrum der Arbeit steht die Frage, wie sechsjährige monolingual deutsche Kinder Sätze mit der Fokuspartikel nur interpretieren. In 5 Experimenten wurde untersucht, welchen Einfluss die Oberflächenposition der Fokuspartikel auf das Satzverständnis hat und ob die kontextuelle Einbettung der nur-Sätze zu einer zielsprachlichen Interpretation führt. Im Gegensatz zu den Ergebnissen bisheriger Studien (u.a. Crain, et al. 1994; Paterson et al. 2003) zeigen die Daten der Arbeit, dass die getesteten Kinder die präsentierten nur-Sätze zielsprachlich interpretierten, wenn diese in einen adäquaten Kontext eingebettet waren. Es zeigte sich weiterhin, dass die Kinder mehr Fehler bei der Interpretation von Sätzen mit nur vor dem Subjekt (Nur die Maus hat einen Ball.) als mit nur vor dem Objekt (Die Maus hat nur einen Ball.) machten. Entgegen dem syntaktisch basierten Ansatz von Crain et al. (1994) und dem semantisch-pragmatisch basierten Ansatz von Paterson et al. (2003) werden in der Arbeit informationsstrukturelle Eigenschaften bzw. Unterschiede der nur-Sätze für die beobachteten Leistungen verantwortlich gemacht. Der in der Arbeit postulierte Topik-Default Ansatz nimmt an, dass die Kinder das Subjekt eines Satzes immer als Topik analysieren. Dies führt im Fall der Sätze mit nur vor dem Subjekt zu einer falschen informationsstrukturellen Repräsentation des Satzes. Basierend auf den Ergebnissen der Arbeit und dem postulierten Topik-Default Ansatz wird in der Arbeit abschließend ein Erwerbsmodell für das Verstehen von Sätzen mit der Fokuspartikel nur entworfen und diskutiert.
In this talk, I would like to share my experiences gained from participating in four CSP solver competitions and the second ASP solver competition. In particular, I’ll talk about how various programming techniques can make huge differences in solving some of the benchmark problems used in the competitions. These techniques include global constraints, table constraints, and problem-specific propagators and labeling strategies for selecting variables and values. I’ll present these techniques with experimental results from B-Prolog and other CLP(FD) systems.
Für die polnische Geschichtswahrnehmung stellt die Westerplatte – eine kleine Halbinsel bei Gdańsk – ein Symbol des heldenhaften Widerstandes und des aussichtslosen Kampfes gegen Nazi-Deutschland dar. Zu der Gedenkfeier anlässlich des 70. Jahrestags des Kriegsbeginns haben sich am 1. September 2009 auf der Westerplatte rund 20 europäischen Staats- und Regierungschefs versammelt. Die Inhalte, die in den Reden der zentralen Akteure der Gedenkfeier signalisiert wurden, bilden wichtige Referenzpunkte in der nationalen wie supranationalen Aufarbeitung der tragischen Geschichte des vergangenen Jahrhunderts. Im Mittelpunkt des Papers steht das Problem der Wahrnehmung der Geschichte des Zweiten Weltkrieges, das hier an den Auslegungsprozessen in Hinblick auf die Figur Westerplatte an den vier zentralen Reden der Spitzenpolitiker verfolgt und diskursanalytisch ausgewertet wird.
Wer regiert die Welt?
(2010)
Das Ende des Nachkriegssystems der multilateralen Finanzorganisationen ist keines im eigentlichen Sinn des Wortes. Aber die Veränderungen im internationalen System sind evident und beschränken sich nicht auf Weltbank und Währungsfonds. Die entscheidende Verschiebung des globalen Machtgefüges findet außerhalb des multilateralen Systems der UNO statt. Es sind informelle Gruppen, die Gs in verschiedener Stärke: G-7/8 als westliches Auslaufmodell, der Newcomer G-20 und wenn Europa nicht aufpasst die G-2: Chinamerica.
Was ist eine kreative Leistung von Studierenden? Dies ist die Ausgangsfrage, wenn Lehre kreativitätsförderlicher als bislang gestaltet werden soll. In diesem Beitrag wird ein Modell zur Förderung von Kreativität in der Hochschullehre vorgestellt und mit einem Beispiel verdeutlicht. Es wird die veränderte Konzeption der Vorlesung Informatik & Gesellschaft illustriert: Studierende hatten die Aufgabe, eine „e-Infrastruktur für die Universität NeuDoBoDu“ zu entwickeln. Hierzu werden die Ergebnisse der Evaluation und Erfahrungen erläutert.
Die Studienanfänger der Informatik haben in Deutschland sehr unterschiedliche Grundkenntnisse in der Programmierung. Dies führt immer wieder zu Schwierigkeiten in der Ausrichtung der Einführungsveranstaltungen. An der TU München wird seit dem Wintersemester 2008/2009 nun eine neue Art von Vorkursen angeboten. In nur 2,5 Tagen erstellen die Teilnehmer ein kleines objektorientiertes Programm. Dabei arbeiten sie weitestgehend alleine, unterstützt von einem studentischen Tutor. In dieser Arbeit sollen nun das Konzept der sogenannten „Vorprojekte“ sowie erste Forschungsansätze vorgestellt werden
I. Genehmigungsregelungen im Kontext der Auseinandersetzungen um die Dienstleistungsrichtlinie II. Begriffliche Grundlagen II. 1. Genehmigungsbegriff II. 2. Abgrenzung von Niederlassungs- und Dienstleistungsfreiheit III. Anforderungen an Genehmigungen im Rahmen der Niederlassungsfreiheit III. 1. Anforderungen an Genehmigungsregelungen (Art. 9 DLRL) III. 2. Voraussetzungen für die Erteilung der Genehmigung (Art. 10 DLRL) III. 3. Genehmigungsdauer (Art. 11 DLRL) III. 4. Beschränkungen der Anzahl der Genehmigungen (Art. 12 DLRL) III. 5. Genehmigungsverfahren (Art. 13 DLRL) IV. Anforderungen an Tätigkeiten im Rahmen des freien Dienstleistungsverkehrs V. Zusammenfassung und Bewertung
Large-scale volcanic deformation recently detected by radar interferometry (InSAR) provides new information and thus new scientific challenges for understanding volcano-tectonic activity and magmatic systems. The destabilization of such a system at depth noticeably affects the surrounding environment through magma injection, ground displacement and volcanic eruptions. To determine the spatiotemporal evolution of the Lazufre volcanic area located in the central Andes, we combined short-term ground displacement acquired by InSAR with long-term geological observations. Ground displacement was first detected using InSAR in 1997. By 2008, this displacement affected 1800 km2 of the surface, an area comparable in size to the deformation observed at caldera systems. The original displacement was followed in 2000 by a second, small-scale, neighbouring deformation located on the Lastarria volcano. We performed a detailed analysis of the volcanic structures at Lazufre and found relationships with the volcano deformations observed with InSAR. We infer that these observations are both likely to be the surface expression of a long-lived magmatic system evolving at depth. It is not yet clear whether Lazufre may trigger larger unrest or volcanic eruptions; however, the second deformation detected at Lastarria and the clear increase of the large-scale deformation rate make this an area of particular interest for closer continuous monitoring.
Component based software development (CBSD) and aspectoriented software development (AOSD) are two complementary approaches. However, existing proposals for integrating aspects into component models are direct transposition of object-oriented AOSD techniques to components. In this article, we propose a new approach based on views. Our proposal introduces crosscutting components quite naturally and can be integrated into different component models.
Die Arbeit zielt darauf ab, ein tieferes Verständnis darüber zu schaffen, wodurch die Verwendung von Performance-Informationen in der öffentlichen Verwaltung bestimmt wird. Ausgehend von einer Literaturrecherche zu den wichtigsten theoretischen Erklärungen für die Verwendung von Performance-Informationen wird ein Analyseraster entwickelt, anhand dessen der Grad der Informationsverwendung in der Verwaltung operationalisiert wird. Anschließend wird eine Fallstudie über die Berliner Sozialhilfeverwaltung durchgeführt. Es kann gezeigt werden, dass verschiedene Verwaltungsakteure desselben Politikbereichs heterogene Präferenzen besitzen und sich folglich auch ihre Erwartungen an Performance-Informationen unterscheiden: Da beispielsweise die Sozialämter in den Berliner Bezirken hauptsächlich im „operativen Tagesgeschäft“ involviert sind, richtet sich ihr Hauptaugenmerk auf Kennzahlen, die diese Perspektive abdecken. Demgegenüber liegt etwa auf der Landesseite das Augenmerkt der Senatsverwaltung für Finanzen mehr auf den Kosteninformationen, da hier die Steuerung über die Globalsummenzuweisung an die Bezirke erfolgt. Es lassen sich verschiedene Indizien finden, um die Verwendung dieser Daten erklären zu können. Es wird festgestellt, dass der Schwerpunkt bislang eindimensional auf den Finanzdaten liegt. Die Verwendung lässt sich vor allem durch die subjektive politische Brisanz bestimmter Daten sowie durch die Einstellung der Führungskräfte gegenüber einer performance-basierten Steuerungsphilosophie erklären.
Für den Umgang post-autoritärer Gesellschaften mit den Tätern von Menschenrechtsverletzungen der Vorgängerregime gibt es zahlreiche Möglichkeiten. Neben der legalen Strafverfolgung haben sich seit Mitte der 1970er Jahre vor allem Wahrheitskommissionen als Form gegenseitiger Versöhnung zwischen Tätern und Opfern etabliert. Die vorliegende Studie gibt aus der Perspektive der vergleichenden Politikfeldforschung eine Antwort auf die Frage, welche politischen Faktoren der Wahrheitskommissionen in Uruguay, Panama und Ghana zu einer Verzögerung bei den Aufarbeitungsprozessen nach der Transition führen. Dazu werden aus der Theorie von Transitional Justice Hypothesen zur Machtverteilung, dem Ausmaß der Menschenrechtsverletzungen und den zivil-militärischen Reformen für verspätete Wahrheitskommissionen abgeleitet, welche zur Plausibilisierung der Verzögerung beitragen. Im empirisch-analytischen Teil der Arbeit wird in der Untersuchungs- und Kontrollgruppe deutlich, dass im Vergleich zu transitionsnahen Wahrheitskommissionen ein niedrigeres Niveau an Menschenrechtsverletzungen den politischen Druck für die Aufarbeitung hemmt und die Täter als demokratisch gewählte Machthaber nach der Transition kein Interesse an der Wahrheit haben (Ghana und Panama) bzw. mit den neuen Machthabern paktierten (Uruguay). Zudem zeigt die Studie, dass zivil-militärische Reformen keinen Einfluss auf die Aufarbeitung der Wahrheit haben, wie in der Literatur argumentiert wird. Auch wird angezweifelt, dass sich die politische Machtverteilung bei der Einsetzung von Wahrheitskommissionen im Gleichgewicht befindet.
Nach wie vor ist es der internationalen Gemeinschaft nicht gelungen, eine Lösung für die afghanische Krise zu präsentieren. Dabei macht die gegenwärtige Situation eine Beendigung des Kriegszustands sowie die Aufnahme von konstruktiven Verhandlungen unerlässlich. Die Genfer Verhandlungen der 1980er Jahre über den Abzug der Sowjetarmee aus Afghanistan könnten hierbei als Vorbild dienen.
Einleitung: Vorliegende empirische Daten verdeutlichen, dass in der Fachwelt zwar weites gehend Einigkeit über die Wirkung des Mediums Wasser auf den Organismus in Ruhe (metabolisch und endokrin) besteht, aber differente Aussagen bei Immersion und Bewegung (hämodynamisch, metabolisch und endokrin) getroffen werden. Wie unterscheidet sich die physische Beanspruchung an Land und im Wasser? Gelten die allgemeingültigen Empfehlungen an Land zur Steuerung erwünschter Trainings- bzw. Belastungseffekte auch für aquale Bewegungs- und Trainingsformen? Ergebnisse und Diskussion: Die Herzfrequenz, der systolische Blutdruck und der Sauerstoffverbrauch waren in Ruhe (baseline) an der anaeroben Schwelle und während der Ausbelastung auf dem Land und im Wasser ähnlich. Der Respiratorische Quotient wurde gering reduziert, als die Probanden im Wasser trainierten. Die Glukose- und Laktatkonzentration wurden vermindert, wohingegen die freie Fettsäurekonzentration mit der Belastung im Wasser erhöht wurde. Wasserimmersion senkte die Adrenalin- und Noradrenalinkonzentration und erhöhte die vermehrte ANP-Produktion während der Belastung. Belastungsinduzierte Anstiege endokriner Parameter (Adrenalin und Noradrenalin) sind im Wasser geringer ausgeprägt als an Land. Hinsichtlich der Stoffwechselregulation konnte beobachtet werden, dass ANP eine Rolle bei der Regulation des Fettstoffwechsels spielt. Die Ergebnisse lassen vermuten, dass Belastungen im Wasser vor allem eine spezifische humorale und metabolische Antwort des Organismus entlocken. Belastungsinduzierte Anstiege endokriner Parameter (Katecholamine) im Wasser sind geringer ausgeprägt als an Land. Immersions- und Belastungseffekte scheinen teilweise konträre Reize zu sein. Es sind daher weiterhin experimentelle Untersuchungen notwendig, um die Regulationsmechanismen des Organismus zur Kompensation eines erhöhten venösen Rückstroms bei Immersion ohne und vor allem mit Bewegung zu klären. Auf Grund der geringen Unterschiede in der hämodynamischen Reaktion des Körpers bei vergleichbarer körperlicher Belastung Land vs. Wasser kann sich an den allgemeingültigen Empfehlungen an Land zur Steuerung erwünschter Trainings-bzw. Belastungseffekte auch für aquale Bewegungs- und Trainingsformen orientiert werden.
Vergessene Konflikte
(2010)
Vergessen gehört zur menschlichen Natur. Und was für den Einzelnen gilt, scheint auch für Gesellschaften zu gelten. Politische Katastrophen mögen ein oder zwei Generationen nachwirken, aber dann beginnt das Vergessen. 40 bewaffnete Konflikte toben derzeit in der Welt. Über einige wird informiert, über andere wissen wir wenig oder nichts. Im Thema dieses Heftes wollen wir einige dieser “Vergessenen Konflikte” wieder ins Bewusstsein holen. Wissenschaftler verschiedener deutscher Forschungsinstitutionen beleuchten die Ursachen und Interessen, die zu den Kriegen führen und formulieren Lösungsvorschläge. Im WeltBlick wird die Halbwertszeit des Atomwaffensperrvertrags betrachtet. Außerdem geht es um den neuen internationalen Hotspot Arktis sowie um die Entwicklungsmöglichkeiten der polnischen Außenpolitik.
Untersuchungen PEG-basierter thermo-responsiver Polymeroberflächen zur Steuerung der Zelladhäsion
(2010)
Moderne Methoden für die Einzelzellanalyse werden dank der fortschreitenden Weiterentwicklung immer sensitiver. Dabei steigen jedoch auch die Anforderungen an das Probenmaterial. Viele Aufbereitungsprotokolle adhärenter Zellen beinhalten eine enzymatische Spaltung der Oberflächenproteine, um die Ablösung vom Zellkultursubstrat zu ermöglichen. Verschiedene Methoden, wie die Patch-Clamp-Technik oder eine auf der Markierung extrazellulärer Domänen von Membranproteinen basierende Durchflusszytometrie können dann nur noch eingeschränkt eingesetzt werden. Daher ist die Etablierung neuer Zellablösemethoden dringend notwendig. In der vorliegenden Arbeit werden erstmals PEG-basierte thermo-responsive Oberflächen erfolgreich für die Zellkultur eingesetzt. Dabei wird das zerstörungsfreie Ablösen verschiedener Zelllinien von den Oberflächen durch Temperatursenkung realisiert. Die Funktionalität der Oberflächen wird durch Variation der Polymerstruktur, sowie der Konzentration der Beschichtungslösung, durch Beschichtung der Oberflächen mit einem zelladhäsionsfördernden Protein (Fibronektin) und durch Adsorption zelladhäsionsvermittelnder Peptide (RGD) optimiert. Um den Zellablösungsprozess detaillierter zu untersuchen, wird hier zum ersten Mal der direkte Zellkontakt mit thermo-responsiven Oberflächen mittels oberflächensensitiver Mikroskopie (TIRAF) sichtbar gemacht. Mit dieser Technik sind die exakte Quantifizierung und die Analyse der Reduktion der Zelladhäsionsfläche während des Abkühlens möglich. Hierbei werden in Abhängigkeit von der Zelllinie Unterschiede im Zellverhalten während des Ablösens festgestellt: Zellen, wie eine Brustkrebszelllinie und eine Ovarzelllinie, die bekanntermaßen stärker mit ihrer Umgebung in Kontakt treten, vergrößern im Verlauf des Beobachtungszeitraumes den Abstand zwischen Zellmembran und Oberfläche, reduzieren jedoch ihre Zell-Substratkontaktfläche kaum. Mausfibroblasten hingegen verkleinern drastisch die Zelladhäsionsfläche. Der Ablösungsprozess wird vermutlich aktiv von den Zellen gesteuert. Diese Annahme wird durch zwei Beobachtungen gestützt: Erstens verläuft die Reduktion der Zelladhäsionsfläche bei Einschränkung des Zellmetabolismus durch eine Temperatursenkung auf 4 °C verzögert. Zweitens hinterlassen die Zellen Spuren, die nach dem Ablösen der Zellen auf den Oberflächen zurückbleiben. Mittels Kombination von TIRAF- und TIRF-Mikroskopie werden die Zelladhäsionsfläche und die Aktinstruktur gleichzeitig beobachtet. Die Verknüpfung beider Methoden stellt eine neue Möglichkeit dar, intrazelluläre Prozesse mit der Zellablösung von thermo-responsiven Oberflächen zu korrelieren.
Die Europäische Währungsunion (EWU) umfasst heute 16 Staaten mit insgesamt 321 Millionen Einwohnern, sie ist mit einem Bruttoinlandsprodukt von 22,9 Billionen Euro einer der größten Wirtschaftsräume der Erde. In den nächsten Jahren wird die EWU durch die Aufnahme der 2004 und 2007 beigetretenen neuen EU-Länder weiter wachsen. Da der Beitritt von der Erfüllung der Kriterien von Maastricht abhängt, erfolgt die Erweiterung im Gegensatz zur 5. Erweiterungsrunde der EU nicht als Block, sondern sequentiell. Nach den Beitritten von Slowenien am 1.1.2007 und der Slowakei zum 1.1.2009 steht der Beitritt eines ersten großen Landes in den nächsten Jahren bevor. Daher stößt die Frage der Effekte eines solchen Beitritts seit geraumer Zeit auf breites Interesse in der ökonomischen Literatur. Das Forschungsziel der Dissertation ist es, die theoretischen Wirkungsmechanismen eines Beitritts der neuen Mitgliedsländer zur Europäischen Währungsunion abzubilden. Hierzu werden mögliche stabilitätspolitische Konsequenzen sowie die Auswirkungen eines Beitritts auf die geografische Wirtschaftsstruktur und das Wachstum dieser Länder in theoretischen Modellen abgeleitet. Die direkten Effekte des Beitritts werden in einem angewandt-theoretischen Modell zudem quantifiziert. Insgesamt wird der Beitritt aus drei verschiedenen Perspektiven analysiert: Erstens werden die Konsequenzen der Währungsunion für die Stabilitätspolitik der neuen Mitgliedsländer im Rahmen eines neukeynesianischen Modells betrachtet. Zweitens werden die mit der Transaktionskostensenkung verbundenen Gewinne in einem angewandten Gleichgewichtsmodell quantifiziert. Drittens werden die wachstumstheoretischen Wirkungen der Finanzmarktintegration in einem dynamischen Gleichgewichtsmodell untersucht. Da die drei Aspekte der makroökonomischen Stabilität, der Transaktionskostensenkung und der dynamischen Wirkungen der Finanzmarktintegration weitgehend unabhängig voneinander auftreten, ist die Verwendung verschiedener Modelle mit geringen Kosten verbunden. In der Gesamtbeurteilung des EWU-Beitritts der neuen EU-Länder kommt diese Arbeit zu einer anderen Einschätzung als bisherige Studien. Die in Teil eins ermittelten stabilitätspolitischen Konsequenzen sind entweder neutral oder implizieren bei Beitritt zur Währungsunion eine größere Stabilität. Die in Teil zwei und drei ermittelten statischen und dynamischen Gewinne eines Beitritts sind zudem erheblich, so dass ein schneller Beitritt zur Währungsunion für die neuen EU-Mitgliedsländer vorteilhaft ist. Unter Berücksichtigung der Ziele der Europäischen Wirtschafts- und Währungsunion (EWWU) müssen hierzu jedoch zwei Bedingungen erfüllt sein. Einerseits sind hinreichend entwickelte Finanzmärkte notwendig, um das Ziel einer Konvergenz der neuen und alten EU-Mitgliedsländer zu erreichen. Andererseits wird der Gesamtraum von einer stärkeren Finanzmarktintegration und einer Senkung der Transaktionskosten profitieren, jedoch durch die Übertragung von Schocks der neuen Mitgliedsländer instabiler. Daher kann der Beitritt der neuen Mitgliedsländer zur EWU für den Gesamtraum negativ sein. Diese Kosten sind nur dann zu rechtfertigen, falls über die schnellere Entwicklung der neuen Mitgliedsstaaten eine höhere Stabilität des Währungsraumes erzielt wird. Das neukeynesianische Wachstumsmodell gibt Hinweise, dass eine solche Entwicklung eintreten könnte.
Und der Zukunft abgewandt
(2010)
Seit dem Ende der DDR, das den Zusammenbruch des Ostblocks und damit die Beendigung des »Kalten Kriegs« einleitete, wird verstärkt versucht, das Wesen dieses Staates zu definieren und damit seine Folgen auf wirtschaftlicher, sozialer, psychologischer und bildungspolitischer Ebene zu verstehen und einzuordnen. Alexandra Budke analysiert in diesem Band das Schulfach Geographie, das neben der Staatsbürgerkunde und der Geschichte ein zentrales Fach war und in dem die in den Lehrplänen definierte »staatsbürgerliche, weltanschauliche oder ideologische Erziehung« auf der Grundlage des Marxismus-Leninismus stattfinden sollte. Sie klärt, inwiefern Geographieunterricht in der DDR genutzt wurde, um geopolitische Interessen des Staates zu kommunizieren und zu verbreiten. Damit lässt sich durch die detaillierte Analyse des Fachunterrichts auch die Frage beantworten, ob SchülerInnen im Unterricht politisch manipuliert wurden und welche Handlungsmöglichkeiten die zentralen Akteure des Unterrichts, die LehrerInnen und die SchülerInnen, im Rahmen der durch die Bildungspolitik gesetzten curricularen Vorgaben wahrgenommen haben.
In der Handreichung geben Experten (Wissenschaftler und Praktiker) theoretische Orientierungen und praktische Anregungen und Hinweise zur Umwelterziehung und Erziehung zur Naturverbundenheit innerhalb und außerhalb von Schule. Einen Schwerpunkt bilden hierbei der Schulgarten und Schulgartenunterricht. Weitere Themen sind Lernen mit allen Sinnen, Erfahrungen im Grünen Klassenzimmer, praktische Umweltprojekte und Naturerziehung konkret, Nutzung moderner Medien in der Umweltbildung u.a. Adressaten der Handreichung sind Förderer, Träger, Betreiber und Nutzer schulischer und außerschulischer Umweltbildungseinrichtungen und des Schulgartens sowie auf dem Gebiet arbeitende und forschende Wissenschaftler. Insbesondere richtet sich die Handreichung an im Schulgarten tätige Lehrerinnen und Lehrer, denen Möglichkeiten aufgezeigt werden sollen, wie die nicht explizit in der Stundentafel der Schule verankerte Arbeit im Schulgarten zu einem festen Bestandteil pädagogischer Bemühungen um die Umwelterziehung (auch über Schulgrenzen hinaus) gemacht und der Schulgartenbewegung neue Impulse verliehen werden kann.
Different properties of programs, implemented in Constraint Handling Rules (CHR), have already been investigated. Proving these properties in CHR is fairly simpler than proving them in any type of imperative programming language, which triggered the proposal of a methodology to map imperative programs into equivalent CHR. The equivalence of both programs implies that if a property is satisfied for one, then it is satisfied for the other. The mapping methodology could be put to other beneficial uses. One such use is the automatic generation of global constraints, at an attempt to demonstrate the benefits of having a rule-based implementation for constraint solvers.
Because software development is increasingly expensive and timeconsuming, software reuse gains importance. Aspect-oriented software development modularizes crosscutting concerns which enables their systematic reuse. Literature provides a number of AOP patterns and best practices for developing reusable aspects based on compelling examples for concerns like tracing, transactions and persistence. However, such best practices are lacking for systematically reusing invasive aspects. In this paper, we present the ‘callback mismatch problem’. This problem arises in the context of abstraction mismatch, in which the aspect is required to issue a callback to the base application. As a consequence, the composition of invasive aspects is cumbersome to implement, difficult to maintain and impossible to reuse. We motivate this problem in a real-world example, show that it persists in the current state-of-the-art, and outline the need for advanced aspectual composition mechanisms to deal with this.
The correctness of model transformations is a crucial element for the model-driven engineering of high quality software. A prerequisite to verify model transformations at the level of the model transformation specification is that an unambiguous formal semantics exists and that the employed implementation of the model transformation language adheres to this semantics. However, for existing relational model transformation approaches it is usually not really clear under which constraints particular implementations are really conform to the formal semantics. In this paper, we will bridge this gap for the formal semantics of triple graph grammars (TGG) and an existing efficient implementation. Whereas the formal semantics assumes backtracking and ignores non-determinism, practical implementations do not support backtracking, require rule sets that ensure determinism, and include further optimizations. Therefore, we capture how the considered TGG implementation realizes the transformation by means of operational rules, define required criteria and show conformance to the formal semantics if these criteria are fulfilled. We further outline how static analysis can be employed to guarantee these criteria.
Tolerierter Schmuggel
(2010)
Grenzen sind soziale Tatsachen, die sich räumlich manifestieren – etwa wenn Schmuggler und Grenzschützer an Grenzübergängen aufeinandertreffen und in ritualisierter Form Bedingungen und Möglichkeiten des Grenzübertritts aushandeln. Das Grenzgeschehen wird in diesem Beitrag in soziologisch-ethnologischer Perspektive am Beispiel des Kaliningrader Grenzgebiets betrachtet.
This paper studies the persistence of daily returns of 21 German stocks from 1960 to 2008. We apply a widely used test based upon the modified R/S-Method by Lo [1991]. As an extension to Lux [1996] and Carbone et al. [2004] and in analogy to moving average or moving volatility, the statistics is calculated for moving windows of length 4, 8, and 16 years for every time series. Periods of persistence or long memory in returns can be found in some but not all time series. Robustness of results is verified by investigating stationarity and short memory effects.
Think local sell global
(2010)
With the rise of nanotechnology in the last decade, nanofluidics has been established as a research field and gained increased interest in science and industry. Natural aqueous nanofluidic systems are very complex, there is often a predominance of liquid interfaces or the fluid contains charged or differently shaped colloids. The effects, promoted by these additives, are far from being completely understood and interesting questions arise with regards to the confinement of such complex fluidic systems. A systematic study of nanofluidic processes requires designing suitable experimental model nano – channels with required characteristics. The present work employed thin liquid films (TLFs) as experimental models. They have proven to be useful experimental tools because of their simple geometry, reproducible preparation, and controllable liquid interfaces. The thickness of the channels can be adjusted easily by the concentration of electrolyte in the film forming solution. This way, channel dimensions from 5 – 100 nm are possible, a high flexibility for an experimental system. TLFs have liquid IFs of different charge and properties and they offer the possibility to confine differently shaped ions and molecules to very small spaces, or to subject them to controlled forces. This makes the foam films a unique “device” available to obtain information about fluidic systems in nanometer dimensions. The main goal of this thesis was to study nanofluidic processes using TLFs as models, or tools, and to subtract information about natural systems plus deepen the understanding on physical chemical conditions. The presented work showed that foam films can be used as experimental models to understand the behavior of liquids in nano – sized confinement. In the first part of the thesis, we studied the process of thinning of thin liquid films stabilized with the non – ionic surfactant n – dodecyl – β – maltoside (β – C₁₂G₂) with primary interest in interfacial diffusion processes during the thinning process dependent on surfactant concentration 64. The surfactant concentration in the film forming solutions was varied at constant electrolyte (NaCl) concentration. The velocity of thinning was analyzed combining previously developed theoretical approaches. Qualitative information about the mobility of the surfactant molecules at the film surfaces was obtained. We found that above a certain limiting surfactant concentration the film surfaces were completely immobile and they behaved as non – deformable, which decelerated the thinning process. This follows the predictions for Reynolds flow of liquid between two non – deformable disks. In the second part of the thesis, we designed a TLF nanofluidic system containing rod – like multivalent ions and compared this system to films containing monovalent ions. We presented first results which recognized for the first time the existence of an additional attractive force in the foam films based on the electrostatic interaction between rod – like ions and oppositely charged surfaces. We may speculate that this is an ion bridging component of the disjoining pressure. The results show that for films prepared in presence of spermidine the transformation of the thicker CF to the thinnest NBF is more probable as films prepared with NaCl at similar conditions of electrostatic interaction. This effect is not a result of specific adsorption of any of the ions at the fluid surfaces and it does not lead to any changes in the equilibrium properties of the CF and NBF. Our hypothesis was proven using the trivalent ion Y3+ which does not show ion bridging. The experimental results are compared to theoretical predictions and a quantitative agreement on the system’s energy gain for the change from CF to NBF could be obtained. In the third part of the work, the behavior of nanoparticles in confinement was investigated with respect to their impact on the fluid flow velocity. The particles altered the flow velocity by an unexpected high amount, so that the resulting changes in the dynamic viscosity could not be explained by a realistic change of the fluid viscosity. Only aggregation, flocculation and plug formation can explain the experimental results. The particle systems in the presented thesis had a great impact on the film interfaces due to the stabilizer molecules present in the bulk solution. Finally, the location of the particles with respect to their lateral and vertical arrangement in the film was studied with advanced reflectivity and scattering methods. Neutron Reflectometry studies were performed to investigate the location of nanoparticles in the TLF perpendicular to the IF. For the first time, we study TLFs using grazing incidence small angle X – ray scattering (GISAXS), which is a technique sensitive to the lateral arrangement of particles in confined volumes. This work provides preliminary data on a lateral ordering of particles in the film.
Die Möglichkeiten sich zu informieren, am Leben der vielen Anderen teilzunehmen ist durch das Internet mit seinen Tweets, Google-Angeboten und sozialen Netzwerken wie Facebook ins Unermessliche gewachsen. Zugleich fühlen sich viele Nutzer überfordert und meinen, im Meer der Informationen zu ertrinken. So bekennt Frank Schirrmacher in seinem Buch Payback, dass er den geistigen Anforderungen unserer Zeit nicht mehr gewachsen ist. Sein Kopf komme nicht mehr mit. Er sei unkonzentriert, vergesslich und ständig abgelenkt. Das, was vielen zum Problem geworden ist, sehen viele Studierende eher pragmatisch. Der Wissenserwerb in Zeiten von Internet und E-Learning läuft an Hochschulen häufig nach der Helene-Hegemann-Methode ab: Zunächst machen sich die Studierenden, z.B. im Rahmen einer Studien- oder Hausarbeit, bei Wikipedia „schlau“, ein Einstieg ist geschafft. Anschließend wird dieses Wissen mit Google angereichert. Damit ist Überblickswissen vorhanden. Mit geschickter copy-and-paste-Komposition lässt sich daraus schon ein „Werk“ erstellen. Der ein oder andere Studierende gibt sich mit diesem Wissenserwerb zufrieden und bricht seinen Lernprozess hier bereits ab. Nun ist zwar am Ende jeder Studierende für seinen Wissenserwerb selbst verantwortlich. Die erkennbar unbefriedigende Situation sollte die Hochschulen aber herausfordern, das Internet in Vorlesungen und Seminaren auszuprobieren und sinnvolle Anwendungen zu entwickeln. Beispiele gibt es durchaus. Unter der Metapher E-Learning hat sich ein umfangreicher Forschungsschwerpunkt an den Universitäten entwickelt. Einige Beispiele von vielen: So hat der Osnabrücker Informatik-Professor Oliver Vornberger seine Vorlesungen als Video ins Netz gestellt. Per RSS ist es möglich, Sequenzen aufs iPod zu laden. Die übliche Dozentenangst, dann würden sie ja vor leeren Bänken sitzen, scheint unbegründet. Sie werden von den Studierenden vor allem zur Prüfungsvorbereitung genutzt. Wie ist das Internet, das für die junge Generation zu einem alles andere verdrängenden Universalmedium geworden ist, didaktisch in die Hochschullehre einzubinden? Wie also ist konkret mit diesen Herausforderungen umzugehen? Dies soll uns im Folgenden beschäftigen.
Between 2002 and 2006 the Colombian government of Álvaro Uribe counted with great international support to hand a demobilization process of right-wing paramilitary groups, along with the implementation of transitional justice policies such as penal prosecutions and the creation of a National Commission for Reparation and Reconciliation (NCRR) to address justice, truth and reparation for victims of paramilitary violence. The demobilization process began when in 2002 the United Self Defence Forces of Colombia (Autodefensas Unidas de Colombia, AUC) agreed to participate in a government-sponsored demobilization process. Paramilitary groups were responsible for the vast majority of human rights violations for a period of over 30 years. The government designed a special legal framework that envisaged great leniency for paramilitaries who committed serious crimes and reparations for victims of paramilitary violence. More than 30,000 paramilitaries have demobilized under this process between January 2003 and August 2006. Law 975, also known as the “Justice and Peace Law”, and Decree 128 have served as the legal framework for the demobilization and prosecutions of paramilitaries. It has offered the prospect of reduced sentences to demobilized paramilitaries who committed crimes against humanity in exchange for full confessions of crimes, restitution for illegally obtained assets, the release of child soldiers, the release of kidnapped victims and has also provided reparations for victims of paramilitary violence. The Colombian demobilization process presents an atypical case of transitional justice. Many observers have even questioned whether Colombia can be considered a case of transitional justice. Transitional justice measures are often taken up after the change of an authoritarian regime or at a post-conflict stage. However, the particularity of the Colombian case is that transitional justice policies were introduced while the conflict still raged. In this sense, the Colombian case expresses one of the key elements to be addressed which is the tension between offering incentives to perpetrators to disarm and demobilize to prevent future crimes and providing an adequate response to the human rights violations perpetrated throughout the course of an internal conflict. In particular, disarmament, demobilization and reintegration processes require a fine balance between the immunity guarantees offered to ex-combatants and the sought of accountability for their crimes. International law provides the legal framework defining the rights to justice, truth and reparations for victims and the corresponding obligations of the State, but the peace negotiations and conflicted political structures do not always allow for the fulfillment of those rights. Thus, the aim of this article is to analyze what kind of transition may be occurring in Colombia by focusing on the role that transitional justice mechanisms may play in political negotiations between the Colombian government and paramilitary groups. In particular, it seeks to address to what extent such processes contribute to or hinder the achievement of the balance between peacebuilding and accountability, and thus facilitate a real transitional process.
Reflecting on how and with what kind of consequences something artificial, something manufactured becomes naturalized in video games will be the central issue of this text. It deals with the question of how the video game hides its artificiality in terms of technique. In a certain sense this retrieves one of the fundamental questions of modernity and industrialization: How does the manufacturing of our environment become a naturalized, self-evident and indubitable process?
Communication, simulation, interactive narrative and ubiquitous computing are widely accepted as perspectives in humancomputer interaction. This paper proposes play as another possible perspective. Everyday uses of the computer increasingly show signs of similarity to play. This is not discussed with regard to the so-called media society, the playful society, the growing cultural acceptance of the computer, the spread of computer games or a new version of Windows, but in view of the playful character of interaction with the computer that has always been part of it. The exploratory learning process involved with new software and the creative tasks that are often undertaken when using the computer may support this argument. Together with its high level of interactivity, these observations point to a sense of security, autonomy and freedom of the user that produce play and are, in turn, produced by play. This notion of play refers not to the playing of computer games, but to an implicit, abstract (or symbolic) process based on a certain attitude, the play spirit. This attitude is discussed regarding everyday computer use and related to the other mentioned perspectives.
This paper reviews theoretical and empirical evidence of asset price movements impact on the real economic activity. A key channel is the wealth effect on consumption. Fluctuations in stock prices and housing prices influence the households wealth and could have important impacts on households consumption. In addition, stock prices may affect corporate sector investments and property prices may affect building activity. Here, the method of cointegration is used to estimate the wealth effect and the investment effect in aggregate time series for Germany after the Reunification in 1990. Moreover, we discuss the role of asset prices in the monetary policy strategy of the ECB.
This study deals with the impacts of the Holocaust on the identity of the Jewish community in Slovakia. The author is interested in the question (whether and) in which form God remained among the survivors after Auschwitz. The available ethnological material has shown that suffering during the Holocaust often resulted into abandoning the religion, and particularly in Judaism. Many survivors broke up their contacts with Jewry. They often decided to join the communist party (either due to their conviction or opportunism.) Our research has indicated that for the majority of the Slovak Jews, God after the Holocaust is rather an abstract concept or non existing. However, he is definitely not the biblical God of the Tora and micvot, to which our ancestors used to pray.
The article is a study research that attempts to reconstitute one facet of the Jewish cultural history, represented by the Jewish typographical activity in a geographic and historic context, i.e. North Transylvania at the end of the 19th and the beginning of the 20th centuries. The core of the study is represented by a detailed research of the typographical activity of Jacov Wieder’s printing house that he had set up in 1897 at Seini, a small locality in the county of Satu Mare. Wieder’s printing house, where some 150 Hebrew book titles were printed, was activated alongside with some other 20 Hebrew printing houses of the same county until 1944. The Hebrew books printed at Seini are thoroughly examined from the point of view of their subject and authors. The high technical quality of the print of Wieder’s printing house and not less the prestige of the authors contributed to its fame and reputation. The books were distributed throughout the world and reached the Jewish communities from countries in the immediate proximity Eastern, Central and Western Europe and even North America and the Land of Israel.
Ghrelin is a unique hunger-inducing stomach-borne hormone. It activates orexigenic circuits in the central nervous system (CNS) when acylated with a fatty acid residue by the Ghrelin O-acyltransferase (GOAT). Soon after the discovery of ghrelin a theoretical model emerged which suggests that the gastric peptide ghrelin is the first “meal initiation molecule
The present study explores the role of the word position-in-text in sentence and paragraph reading. Three eye-movement data sets based on the reading of Dutch and German unrelated sentences reveal a sizeable, replicable increase in reading times over several words in the beginning and the end of sentences. The data from the paragraphbased English-language Dundee corpus replicate the pattern and also indicate that the increase in inspection times is driven by the visual boundaries of the text organized in lines, rather than by syntactic sentence boundaries. We argue that this effect is independent of several established lexical, contextual and oculomotor predictors of eye-movement behavior. We also provide evidence that the effect of word position-intext has two independent components: a start-up effect arguably caused by a strategic oculomotor program of saccade planning over the line of text, and a wrap-up effect originating in cognitive processes of comprehension and semantic integration.
Temporal gravimeter observations, used in geodesy and geophysics to study variation of the Earth’s gravity field, are influenced by local water storage changes (WSC) and – from this perspective – add noise to the gravimeter signal records. At the same time, the part of the gravity signal caused by WSC may provide substantial information for hydrologists. Water storages are the fundamental state variable of hydrological systems, but comprehensive data on total WSC are practically inaccessible and their quantification is associated with a high level of uncertainty at the field scale. This study investigates the relationship between temporal gravity measurements and WSC in order to reduce the hydrological interfering signal from temporal gravity measurements and to explore the value of temporal gravity measurements for hydrology for the superconducting gravimeter (SG) of the Geodetic Observatory Wettzell, Germany. A 4D forward model with a spatially nested discretization domain was developed to simulate and calculate the local hydrological effect on the temporal gravity observations. An intensive measurement system was installed at the Geodetic Observatory Wettzell and WSC were measured in all relevant storage components, namely groundwater, saprolite, soil, top soil and snow storage. The monitoring system comprised also a suction-controlled, weighable, monolith-filled lysimeter, allowing an all time first comparison of a lysimeter and a gravimeter. Lysimeter data were used to estimate WSC at the field scale in combination with complementary observations and a hydrological 1D model. Total local WSC were derived, uncertainties were assessed and the hydrological gravity response was calculated from the WSC. A simple conceptual hydrological model was calibrated and evaluated against records of a superconducting gravimeter, soil moisture and groundwater time series. The model was evaluated by a split sample test and validated against independently estimated WSC from the lysimeter-based approach. A simulation of the hydrological gravity effect showed that WSC of one meter height along the topography caused a gravity response of 52 µGal, whereas, generally in geodesy, on flat terrain, the same water mass variation causes a gravity change of only 42 µGal (Bouguer approximation). The radius of influence of local water storage variations can be limited to 1000 m and 50 % to 80 % of the local hydro¬logical gravity signal is generated within a radius of 50 m around the gravimeter. At the Geodetic Observatory Wettzell, WSC in the snow pack, top soil, unsaturated saprolite and fractured aquifer are all important terms of the local water budget. With the exception of snow, all storage components have gravity responses of the same order of magnitude and are therefore relevant for gravity observations. The comparison of the total hydrological gravity response to the gravity residuals obtained from the SG, showed similarities in both short-term and seasonal dynamics. However, the results demonstrated the limitations of estimating total local WSC using hydrological point measurements. The results of the lysimeter-based approach showed that gravity residuals are caused to a larger extent by local WSC than previously estimated. A comparison of the results with other methods used in the past to correct temporal gravity observations for the local hydrological influence showed that the lysimeter measurements improved the independent estimation of WSC significantly and thus provided a better way of estimating the local hydrological gravity effect. In the context of hydrological noise reduction, at sites where temporal gravity observations are used for geophysical studies beyond local hydrology, the installation of a lysimeter in combination with complementary hydrological measurements is recommended. From the hydrological view point, using gravimeter data as a calibration constraint improved the model results in comparison to hydrological point measurements. Thanks to their capacity to integrate over different storage components and a larger area, gravimeters provide generalized information on total WSC at the field scale. Due to their integrative nature, gravity data must be interpreted with great care in hydrological studies. However, gravimeters can serve as a novel measurement instrument for hydrology and the application of gravimeters especially designed to study open research questions in hydrology is recommended.
The issue of determining the time, when the Judaic communities have settled on Romanian land, is one of the most interesting and most delicate details that can be mentioned when talking about this ethnic group. The presence of the first Jewish communities in ancient times on this land was a “taboo” subject during many historical periods until 1989, but even after this year, studies oriented in this direction were more than sketchy. The article does not only bring a surplus of information in this domain, but manages to concentrate – almost didactically – the information and the archaeological proofs known and reknown to the present time. There are depicted material evidences as well as linguistic ones, toponymical and even religious. Also, the author tries to draw a parallel between some layouts of the Dacian state and Dacia Felix, conquered by the Romans, and the presence of some Judaic communities, not very numerous, made out of Judaic population who came together with the Roman conqueror.
The European Values Education (EVE) project is a large-scale, cross-national, and longitudinal survey research program on basic human values. The main topic of its first stage was "work" in Europe. Student teachers of several universities in Europe worked together in multicultural exchange groups. Their results are presented in this issue.
The article explores the pedagogical dimension of contemporary visual art which takes the Holocaust as a main subject of representation. It asks how a work of art can offer a viable alternative to the already existing methods or practices of Holocaust education, whose traditional aim is to endow the apprentice with an ‘absolute knowledge’ of the Holocaust. The article analyzes the characteristics and the effectiveness of a ‘performative’ approach to teaching about the Holocaust, which relies on an element of interaction and on critical self-reflection, by undertaking a close analysis of Your Coloring Book, – an art installation created by Israeli artist and representative of the third generation after the Holocaust, Ram Katzir.
In the first part of the report of the GTZ expert group an overview on the basics of integration and tax harmonisation within a common market is given. Chapter II. concentrates on the problems of national and international tax law regarding double taxation before the harmonisation process within the EU is described in detail. This process is not a best practice example but at least the experiences made in the course of the last five decades are interesting enough and might contribute important information for regions, which more or less recently have started a similar endeavour. The harmonisation needs are discussed for value added taxation (VAT), excise taxation, and income taxation. The problems of tax administrations, procedures laws, taxpayers’ rights and obligations as well as tax compliance are also taken into consideration. The second part of the study reviews the national tax systems within the EAC member countries. Before the single taxes are described in more detail, the macroeconomic situation is illuminated by some basic figures and the current stand of the inner-community integration analysed. Then the single tax bases and tax rates are confronted to shed some light on the necessities for the development of a common market within the near future. Again the value added tax laws, excise taxes and income taxes are discussed in detail, while regarding the latter the focus is on company taxation. For a better systematic analysis the national tax laws are confronted within an overview. The chapter is closed with a summary of the tax rates applied and a rough estimation of the tax burdens within the Partner States. The third part of this report contains the policy recommendations of the expert group following the same structures as the chapters before and presenting the results for the VAT, the excises and the corporate income tax (CIT). Additionally the requirements for tax procedures and administration as well as problems of transparency and information exchange are discussed in detail before the strategic recommendations are derived in close relation to the experiences made within the EU harmonisation process. The recommendations are based on the following normative arguments: (1) Tax harmonisation is a basic requirement for economic integration. (2) Equality of taxation is an imperative of tax justice and demands the avoidance of double taxation as well as the combat of tax evasion and corruption. (3) The avoidance of harmful tax competition between the Partner States. (4) The strengthening of taxpayers’ rights in tax procedures. Hence, all kinds of income, goods and services should be taxed once and only once.
Südafrika und die Fußball-WM
(2010)
Quid novi ex Africa? Diese Fußball-Weltmeisterschaft hat das Potenzial, am negativen Image des Kontinents zu rütteln. Wenn am 11. Juni das erste Spiel beginnt, sollte dies auch für uns Anstoß sein, über Afrika und dessen Platz in der Welt von heute nachzudenken. Auf dem Streitplatz diskutieren wir die Interessen Deutschlands. Weiterhin wird in diesem Heft die Shanghai-Gruppe analysiert, über den Kopenhagener Klimagipfel als Präzedenzfall für die künftige Weltpolitik nachgedacht und die ultimative Frage "Wer regiert die Welt?" beantwortet.
This work presents the development of entropy-elastic gelatin based networks in the form of films or scaffolds. The materials have good prospects for biomedical applications, especially in the context of bone regeneration. Entropy-elastic gelatin based hydrogel films with varying crosslinking densities were prepared with tailored mechanical properties. Gelatin was covalently crosslinked above its sol gel transition, which suppressed the gelatin chain helicity. Hexamethylene diisocyanate (HDI) or ethyl ester lysine diisocyanate (LDI) were applied as chemical crosslinkers, and the reaction was conducted either in dimethyl sulfoxide (DMSO) or water. Amorphous films were prepared as measured by Wide Angle X-ray Scattering (WAXS), with tailorable degrees of swelling (Q: 300-800 vol. %) and wet state Young’s modulus (E: 70 740 kPa). Model reactions showed that the crosslinking reaction resulted in a combination of direct crosslinks (3-13 mol.-%), grafting (5-40 mol.-%), and blending of oligoureas (16-67 mol.-%). The knowledge gained with this bulk material was transferred to the integrated process of foaming and crosslinking to obtain porous 3-D gelatin-based scaffolds. For this purpose, a gelatin solution was foamed in the presence of a surfactant, Saponin, and the resulting foam was fixed by chemical crosslinking with a diisocyanate. The amorphous crosslinked scaffolds were synthesized with varied gelatin and HDI concentrations, and analyzed in the dry state by micro computed tomography (µCT, porosity: 65±11–73±14 vol.-%), and scanning electron microscopy (SEM, pore size: 117±28–166±32 µm). Subsequently, the work focused on the characterization of the gelatin scaffolds in conditions relevant to biomedical applications. Scaffolds showed high water uptake (H: 630-1680 wt.-%) with minimal changes in outer dimension. Since a decreased scaffold pore size (115±47–130±49 µm) was revealed using confocal laser scanning microscopy (CLSM) upon wetting, the form stability could be explained. Shape recoverability was observed after removal of stress when compressing wet scaffolds, while dry scaffolds maintained the compressed shape. This was explained by a reduction of the glass transition temperature upon equilibration with water (dynamic mechanical analysis at varied temperature (DMTA)). The composition dependent compression moduli (Ec: 10 50 kPa) were comparable to the bulk micromechanical Young’s moduli, which were measured by atomic force microscopy (AFM). The hydrolytic degradation profile could be adjusted, and a controlled decrease of mechanical properties was observed. Partially-degraded scaffolds displayed an increase of pore size. This was likely due to the pore wall disintegration during degradation, which caused the pores to merge. The scaffold cytotoxicity and immunologic responses were analyzed. The porous scaffolds enabled proliferation of human dermal fibroblasts within the implants (up to 90 µm depth). Furthermore, indirect eluate tests were carried out with L929 cells to quantify the material cytotoxic response. Here, the effect of the sterilization method (Ethylene oxide sterilization), crosslinker, and surfactant were analyzed. Fully cytocompatible scaffolds were obtained by using LDI as crosslinker and PEO40 PPO20-PEO40 as surfactant. These investigations were accompanied by a study of the endotoxin material contamination. The formation of medical-grade materials was successfully obtained (<0.5 EU/mL) by using low-endotoxin gelatin and performing all synthetic steps in a laminar flow hood.
Mit Seitenkettenpolystyrenen wurde ein neues Synthesekonzept für phosphoreszente polymere LED-Materialien aufgestellt und experimentell verifiziert. Zunächst erfolgten auf Grundlage strukturell einfacher Verbindungen Untersuchungen zum Einfluss von Spacern zwischen aktiven Seitengruppen und dem Polystyrenrückgrat. Es wurden Synthesemethoden für die Monomere etabliert, durch die aktive Elemente - Elektronen- und Lochleiter - mit und ohne diesen Spacer zugänglich sind. Durch Kombination dieser Monomere waren unter Hinzunahme von polymerisierbaren Iridium-Komplexen in unterschiedlicher Emissionswellenlänge statistische Terpolymere darstellbar. Es wurde gezeigt, dass die Realisierung bestimmter Verhältnisse zwischen Loch-, Elektronenleiter und Triplettemitter in ausreichender Molmasse möglich ist. Die Glasstufen der Polymere zeigten eine deutliche Strukturabhängigkeit. Auf die Lage der Grenzorbitale übten die Spacer nahezu keinen Einfluss aus. Die unterschiedlichen Makromoleküle kamen in polymeren Licht emittierenden Dioden (PLEDs) zum Einsatz, wobei ein deutlicher Einfluss der Spacereinheiten auf die Leistungscharakteristik der PLEDs festzustellen war: Sowohl Effizienz, Leuchtdichte wie auch Stromdichte waren durch den Einsatz der kompakten Makromoleküle ohne Spacer deutlich höher. Diese Beobachtungen begründeten sich hauptsächlich in der Verwendung der aliphatischen Spacer, die den Anteil im Polymer erhöhten, der keine Konjugation und damit elektrisch isolierende Eigenschaften besaß. Diese Schlussfolgerungen waren mit allen drei realisierten Emissionsfarben grün, rot und blau verifizierbar. Die besten Messergebnisse erzielte eine PLED aus einem grün emittierenden und spacerlosen Terpolymer mit einer Stromeffizienz von etwa 28 cd A-1 (bei 6 V) und einer Leuchtdichte von 3200 cd m-2 (bei 8 V). Ausgehend von obigen Ergebnissen konnten neue Matrixmaterialien aus dem Bereich verdampfbarer Moleküle geringer Molmasse in das Polystyrenseitenkettenkonzept integriert werden. Es wurden Strukturvariationen sowohl von loch- wie auch von elektronenleitenden Verbindungen als Homopolymere dargestellt und als molekular dotierte Systeme in PLEDs untersucht. Sieben verschiedene lochleitende Polymere mit Triarylamin-Grundkörper und drei elektronendefizitäre Polymere auf der Basis von Phenylbenzimidazol konnten erfolgreich in den Polymeransatz integriert werden. Spektroskopische und elektrochemische Untersuchungen zeigten kaum eine Veränderung der Charakteristika zwischen verdampfbaren Molekülen und den dargestellten Makromolekülen. Diese ladungstransportierenden Makro-moleküle wurden als polymere Matrizes molekular dotiert und lösungsbasiert zu Einschicht-PLEDs verarbeitet. Als aussichtsreichstes Lochleiterpolymer dieser Reihe, mit einer Strom-effizenz von etwa 33 cd A-1 (bei 8 V) und einer Leuchtdichte von 6700 cd m-2 (bei 10 V), stellte sich ein Triarylaminderivat mit Carbazolsubstituenten heraus. Als geeignetstes Matrixmaterial für die Elektronenleitung wurde ein meta-verknüpftes Di-Phenylbenzimidazol ausfindig gemacht, das in der PLED eine Stromeffizienz von etwa 20 cd A-1 (bei 8 V) und eine Leuchtdichte von 7100 cd m-2 (bei 10 V) erzielte. Anschließend wurden die geeignetsten Monomere zu Copolymeren kombiniert: Die lochleitende Einheit bildete ein carbazolylsubstituiertes Triarylamin und die elektronen-leitende Einheit war ein disubstituiertes Phenylbenzimidazol. Dieses Copolymer diente im Folgenden dazu, PLEDs zu realisieren und die Leistungsdaten mit denen eines Homopolymer-blends zu vergleichen, wobei der Blend die bessere Leistungscharakteristik zeigte. Mit dem Homopolymerblend waren Bauteileffizienzen von annähernd 30 cd A-1 (bei 10 V) und Leuchtdichten von 6800 cd m-2 neben einer Verringerung der Einsatzspannung realisierbar. Für die abschließende Darstellung bipolarer Blockcopolymere wurde auf die Nitroxid-vermittelte Polymerisation zurückgegriffen. Mit dieser Technik waren kontrollierte radikalische Polymersiationen mit ausgewählten Monomeren in unterschiedlichen Block-längen durchführbar. Diese Blockcopolymere kamen als molekular dotierte Matrizes in phosphoreszenten grün emittierenden PLEDs zum Einsatz. Die Bauteile wurden sowohl mit statistischen Copolymeren, wie auch mit Homopolymerblends in gleicher Zusammensetzung aber unterschiedlichem Polymerisationsgrad hinsichtlich der Leistungscharakteristik verglichen. Kernaussage dieser Untersuchungen ist, dass hochmolekulare Systeme eine bessere Leistungscharakteristik aufweisen als niedermolekulare Matrizes. Über Rasterkraft-mikroskopie konnte eine Phasenseparation in einem Größenbereich von etwa 10 nm für den hochmolekularen Homopolymerblend nachgewiesen werden. Für die Blockcopolymere war es nicht möglich eine Phasenseparation zu beobachten, was vorwiegend auf deren zu geringe Blocklänge zurückgeführt wurde.
Das ITC SFN und der Mikronährstoff Se sind bekannt als chemopräventive Inhaltsstoffe von Gemüse der Brassica-Familie, welcher auch Brokkoli angehört. Die Wirkungen von sowohl SFN als auch Se beruhen auf zahlreichen verschiedenen Mechanismen. Es existieren jedoch Schnittstellen, an welchen Interaktionen beider Substanzen möglich sind. Basierend auf diesem Wissen wurden in dieser Arbeit Wechselwirkungen zwischen SFN und Se auf die Aktivität sowie Expression von Phase II Enzymen und Selenoproteinen untersucht. Der Einfluss der Kombination von SFN und Se auf die unter physiologischen Bedingungen stattfindende Proliferation und Apoptose war ebenso Gegenstand der Arbeit wie die Modulation von Entzündungsprozessen sowie der Tumorentstehung während der entzündungsverstärkten Colonkanzerogenese im Mausmodell. Das hinsichtlich seiner Wirksamkeit mit aus GRA hydrolysiertem SFN zunächst als vergleichbar befundene synthetische SFN wurde für die Untersuchung im AOM/DSS-induzierten Colontumormodell gewählt und in Kombination mit 3 verschiedenen Selendiäten verabreicht. Der Einfluss von SFN und Se auf Phase II Enzyme und Selenoproteine entlang des GIT war organabhängig und nach 4 Wochen geringer als nach 7 Tagen. Die schwächere Induktion deutet auf eine Anpassung des Organismus hin. Ein SFN-vermittelter Effekt auf NQO1 war im Selenmangel am deutlichsten. Die Aktivität des Selenoproteins TrxR wurde hingegen erst bei ausreichender Selenversorgung durch SFN beeinflusst. Die als Nrf2-Zielgen bekannte und in der Hierarchie der Selenoproteine einen hohen Rang einnehmende GPx2 konnte in bestimmten Organen bereits unter selenarmen Bedingungen durch SFN induziert werden. Eine Überexpression des Enzyms war jedoch nicht möglich. SFN steigerte, unabhängig vom Selenstatus, im oberen Abschnitt des GIT und im Colon die Aktivität der GST. Eine Induktion des eigenen Metabolismus wäre somit denkbar. Im Falle eines Mangels an GPx2 wurde GPx1 bei hinreichender Selenversorgung stärker exprimiert, allerdings konnte sie die Funktion von GPx2 nicht völlig erset-zen. Im Selenmangel kann die Aktivitätssteigerung der TrxR im Dünndarm, dem Ab-schnitt der Selenabsorption, als ein Versuch der GPx2-Kompensation angesehen werden. SFN war nicht in der Lage, über eine Aktivierung des Nrf2/ARE-Signalweges kompensatorische Effekte zu induzieren. Apoptotische Prozesse wurden unter physiologischen Bedingungen nur marginal durch SFN und Se moduliert. Das elektrophile ITC konnte lediglich im Selenmangel Apoptose im luminalen Bereich der Colonkrypten induzieren. Die durch supranutritive Selenkonzentration induzierte Apoptose im Kryptengrund wurde nicht durch SFN beeinflusst. Einer bei Abwesenheit der GPx2 erhöhten Apoptoserate im Kryptengrund wirkte SFN bei adäquater Selenversorgung entgegen, war indessen proapoptotisch unter selendefizienten Konditionen. Der Einfluss von SFN auf die Entzündung war deutlich abhängig vom Selenstatus. Während SFN im Selenmangel anscheinend prooxidative Prozesse induzierte und die Entzündungssymptome verschlimmerte, wirkte es unter adäquatem Selenstatus an-tiinflammatorisch. Den vergleichsweise milden Grad der Entzündung im selensupplementierten Status konnte SFN nicht zusätzlich beeinflussen. SFN veränderte die Inzi-denz colorektaler Tumore nicht. Ein, die Tumorinitiation blockierender SFN-Effekt durch direkte Hemmung der metabolischen Aktivierung des Prokanzerogens im selenadäquaten Zustand scheint offensichtlich. Eine Überversorgung mit Se kann protektiv im Hinblick auf Entzündung oder Colonkanzerogenese sein, jedoch bewirkt SFN keinen zusätzlichen Schutz. Kombinationseffekte von SFN und Se in Bezug auf Phase II Enzyme, Selenoproteine und Apoptose sowie die entzündungsverstärkte Colonkanzerogenese sind nicht eindeutiger Natur und können, abhängig vom Endpunkt, synergistische oder antagonistische Züge aufweisen. Eine bei Selendefizienz deutlichere Wirkung von SFN kann mit Hilfe der gesteigerten Aktivierung von Nrf2 erklärt werden, dies muss jedoch nicht von Vorteil sein. Bei adäquater Selenversorgung kann SFN kurzfristig antiinflammatorische und antikanzerogene Prozesse induzieren. Von einer längerfristigen ständigen SFN-Aufnahme in Form von GRA-reichen Brassicacea ist jedoch abzuraten, da von einer Adaptation auszugehen ist. Die Wirkung von SFN innerhalb der komplexen Pflanzenmatrix bleibt Gegenstand zukünftiger Untersuchungen.
STG decomposition is a promising approach to tackle the complexity problems arising in logic synthesis of speed independent circuits, a robust asynchronous (i.e. clockless) circuit type. Unfortunately, STG decomposition can result in components that in isolation have irreducible CSC conflicts. Generalising earlier work, it is shown how to resolve such conflicts by introducing internal communication between the components via structural techniques only.
Steuern in Fragilen Staaten
(2010)
Fragile states are characterized by institutions which do not have the political will or ability to reduce poverty in the interests of their citizen, to establish basic social security, to promote a successful development process, and to guarantee security and human rights. The regional disintegration processes after the period of imperialism and the fall of the iron curtain have created many new states, which still are politically unstable and unable for a sustainable development. In the literature such states are describes as "weak", "failing or failed", "collapsed", "conflict or post-conflict" - dependant on the extent of the particular state failure. Several indicators try to describe such states and partly allow for projections of the future development. Then the role of taxation is discussed in detail before recommendations for the development cooperation are presented. Obviously taxation plays a key role for the democratization process in fragile states.
rezensiertes Werk: Stephan Dörschel: Fritz Wisten : bis Zum letzten Augenblick : ein jüdisches Theaterleben. - Hentrich & Hentrich : Berlin, 2009. - 112 S. (Jüdische Miniaturen ; 74) ISBN 978-3-938485-85-9
rezensierte Werke: Büsching, Stephan: Rechtsstaat und Terrorismus : Untersuchungen der sicherheitspolitischen Reaktionen der USA, Deutschlands und Großbritanniens auf den internationalen Terrorismus. - Frankfurt a.M. : Lang, 2009. - 194 S. (Europäische Hochschulschriften : Reihe XXXI ; 582) ISBN 978-3-631-59657-9 Wittes, Benjamin (Hrsg.): Legislating the war on terror : an agenda for reform. - Washington, DC : Brookings Institution Press, 2009. - VIII, 420 S. ISBN 978-0-8157-0310-5
Estimation and testing of distributions in metric spaces are well known. R.A. Fisher, J. Neyman, W. Cochran and M. Bartlett achieved essential results on the statistical analysis of categorical data. In the last 40 years many other statisticians found important results in this field. Often data sets contain categorical data, e.g. levels of factors or names. There does not exist any ordering or any distance between these categories. At each level there are measured some metric or categorical values. We introduce a new method of scaling based on statistical decisions. For this we define empirical probabilities for the original observations and find a class of distributions in a metric space where these empirical probabilities can be found as approximations for equivalently defined probabilities. With this method we identify probabilities connected with the categorical data and probabilities in metric spaces. Here we get a mapping from the levels of factors or names into points of a metric space. This mapping yields the scale for the categorical data. From the statistical point of view we use multivariate statistical methods, we calculate maximum likelihood estimations and compare different approaches for scaling.
The interest in extensions of the logic programming paradigm beyond the class of normal logic programs is motivated by the need of an adequate representation and processing of knowledge. One of the most difficult problems in this area is to find an adequate declarative semantics for logic programs. In the present paper a general preference criterion is proposed that selects the ‘intended’ partial models of generalized logic programs which is a conservative extension of the stationary semantics for normal logic programs of [Prz91]. The presented preference criterion defines a partial model of a generalized logic program as intended if it is generated by a stationary chain. It turns out that the stationary generated models coincide with the stationary models on the class of normal logic programs. The general wellfounded semantics of such a program is defined as the set-theoretical intersection of its stationary generated models. For normal logic programs the general wellfounded semantics equals the wellfounded semantics.
Das 3. Herbsttreffen Patholinguistik fand am 21. November 2009 an der Universität Potsdam statt. Der vorliegende Tagungsband enthält die drei Hauptvorträge zum Schwerpunktthema „Von der Programmierung zu Artikulation: Sprechapraxie bei Kindern und Erwachsenen“. Darüber hinaus enthält der Band die Beiträge aus dem Spektrum Patholinguistik, sowie die Abstracts der Posterpräsentationen.
In this paper we develop a spatial Cournot trade model with two unequally sized countries, using the geographical interpretation of the Hotelling line. We analyze the trade and welfare effects of international trade between these two countries. The welfare analysis indicates that in this framework the large country benefits from free trade and the small country may be hurt by opening to trade. This finding is contrary to the results of Shachmurove and Spiegel (1995) as well as Tharakan and Thisse (2002), who use related models to analyze size effects in international trade, where the small country usually gains from trade and the large country may lose.
Computer games may be defined as artifacts that connect the input devices of a computer (such as keyboard, mouse or controller) with its output devices (in most cases a screen and speakers) in such a way that on the screen a challenge is displayed. On the screen we see pictorial elements that have to be manipulated to master a game, that is to win a competition, to solve a riddle or to adopt a skill. Therefore the characteristics of the representational function of computer games have to be contrasted phenomenologically with conventional games on the one hand and cinematic depictions on the other. It shows that computer games separate the player from the playing field, and translate bodily felt concrete actions into situational abstract cinematic depictions. These features add up to the situational abstract presentation of self-action experience. In this framework computer games reveal a potential as a new means of shared cognition that might unfold in the 21st century and change the beingin- the-world in a similar way as cinematic depiction did in the 20th century
Sikum Hilkhot Shabat
(2010)
This document summarises the commandments of Shabbat.
Eye movements in reading are sensitive to foveal and parafoveal word features. Whereas the influence of orthographic or phonological parafoveal information on gaze control is undisputed, there has been no reliable evidence for early parafoveal extraction of semantic information in alphabetic script. Using a novel combination of the gaze-contingent fast-priming and boundary paradigms, we demonstrate semantic preview benefit when a semantically related parafoveal word was available during the initial 125 ms of a fixation on the pre-target word (Experiments 1 and 2). When the target location was made more salient, significant parafoveal semantic priming occurred only at 80 ms (Experiment 3). Finally, with short primes only (20, 40, 60 ms) effects were not significant but numerically in the expected direction for 40 and 60 ms (Experiment 4). In all experiments, fixation durations on the target word increased with prime durations under all conditions. The evidence for extraction of semantic information from the parafoveal word favors an explanation in terms of parallel word processing in reading.
Selektive Grenzen
(2010)
Die Grenze - historisches Auslaufmodell? Moralische Zumutung? Unabdingbare Tatsache? Meist ist sie eine Art Limes: Durchlässig für den Austausch bestimmter Waren und Personen, zugleich Schutz gegen das Eindringen unerwünschter Fremder. Vielfach erklärtes Ziel ist ein "grenzenloses Europa". Im Innern der EU sind Schlagbäume verschwunden, an den Rändern wird vielerorts abgeschottet. Die Grenzsortierungen der EU sind Thema der aktuellen WeltTrends. Afghanistan und kein Ende? Die Londoner Konferenz verspricht trotz "neuer Strategie" keinen erfolgreichen Neuanfang. "Es wird zunächst schlimmer", so ein hoher deutscher Militär. Alternativen müssen diskutiert werden: WeltTrends bietet den Raum.
Seki
(2010)
Game space can be conceived of as being structured by varying levels of ruledness, i.e. it oscillates between openness and closure, between playability and gameness. The movement through game space can then be described as a vector defined by possibility spaces, which are generated organically out of the interplay between ruled and unruled space. But we can only define rules ex negativo, therefore the possibility of breaking the rules is always already inscribed in this vector of movement. This can be conceptualized as a boundary operation that takes the difference between ‘ordinary life’ and ‘play’ as its argument, and which thus generates the difference between ‘play’ and ‘game’.
The presented work describes new concepts of fast switching elements based on principles of photonics. The waveguides working in visible and infra-red ranges are put in a basis of these elements. And as materials for manufacturing of waveguides the transparent polymers, dopped by molecules of the dyes possessing second order nonlinear-optical properties are proposed. The work shows how nonlinear-optical processes in such structures can be implemented by electro-optical and opto-optical control circuit signals. In this paper we consider the complete cycle of fabrication of several types of integral photonic elements. The theoretical analysis of high-intensity beam propagation in media with second-order optical nonlinearity is performed. Quantitative estimations of necessary conditions of occurrence of the nonlinear-optical phenomena of the second order taking into account properties of used materials are made. The paper describes the various stages of manufacture of the basic structure of the integrated photonics: a planar waveguide. Using the finite element method the structure of the electromagnetic field inside the waveguide in different modes was analysed. A separate part of the work deals with the creation of composite organic materials with high optical nonlinearity. Using the methods of quantum chemistry, the dependence of nonlinear properties of dye molecules from its structure were investigated in details. In addition, the paper discusses various methods of inducing of an optical nonlinearity in dye-doping of polymer films. In the work, for the first time is proposed the use of spatial modulation of nonlinear properties of waveguide according Fibonacci law. This allows involving several different nonlinear optical processes simultaneously. The final part of the work describes various designs of integrated optical modulators and switches constructed of organic nonlinear optical waveguides. A practical design of the optical modulator based on Mach-Zehnder interferometer made by a photolithography on polymer film is presented.
Die These des Aufsatzes lautet, dass es sich bei Sebastian Brants „Narrenschiff“ um einen Text handelt, der entsprechend der Prinzipien verstanden werden kann, die Rudolf Agricola für das Sammeln von Argumenten formuliert hat. Das Gründungsdokument dieser humanistischen Methode, die unter dem Begriff der „loci communes“ Geschichte gemacht hat, ist ein Brief Agricolas aus dem Jahr 1484. Ein erster Teil des Aufsatzes stellt Agricolas Argumentationstheorie dar, ein zweiter Teil zeigt, dass Brants „Narrenschiff“ als Ergebnis dieser Argumentationstheorie verstanden werden kann.
Die vorliegende Untersuchung zeigt das ständige Wachstum der Dimension und Bedeutung der staatlichen Schutzpflichten als eine eigenständige Funktion der Grundrechte. Mit jedem Fortschritt und der Entwicklung in der modernen Welt, entstehen in der Gesellschaft immer wieder neue Bereiche, die gesetzlicher Regulierung bedürfen. Daher ist die staatliche Aufgabe eindeutig: Der Staat muss die in der Verfassung ausgelegten Prinzipien in der Realität durch die Gesetze umsetzen und sie ständig wiederkehrend nachbessern. Daher ist der Staat gefordert, die Einzelnen repressiv und präventiv zu schützen. Die Dissertation untersucht die Problematik von staatlichen Schutzpflichten im Rahmen der Grundrechte der georgischen Verfassung vom 24. August 1995 im Vergleich mit den Menschenrechten und Grundfreiheiten der Europäischen Menschenrechtskonvention. Die Arbeit greift ein Grundrechtsproblem auf, das sich gerade in rechtlichen und politischen Umbruchssituationen wie diejenige, die Georgien als Nachfolgestaat der zerbrochenen Sowjetunion durchlebt, als besonders wichtig erweist. Auf dem Weg zur dogmatischen Entfaltung einer grundrechtlichen Schutzpflicht wird als eine Art Leitbild die Europäische Menschenrechtskonvention (EMRK) herangezogen. Dies erklärt sich aus der Natur der EMRK, die sich als eine Art Verfassung für Europa darstellt und in Georgien seit 1999 in Kraft ist. In der Arbeit wird auf die deutsche Schutzpflichtenlehre verwiesen. Das erklärt sich aus der in Deutschland schon seit etwa 30 Jahren geführten Diskussion, die immer noch nicht abgeschlossen ist, aber aus der sich bemerkenswerte und kontroverse Ergebnisse ziehen lassen. Die Arbeit zeigt, dass die georgische Verfassung zahlreiche Ansätze der staatlichen Schutzpflichten – allgemeiner und konkreter Art – liefert, die auch vor allem in der Rechtsprechung des Georgischen Verfassungsgerichts verschiedentlich schon aufgegriffen wurden, durchaus zum Teil unter Rückgriff auf Aussagen der Europäischen Menschenrechtskonvention (EMRK) bzw. des Europäischen Gerichtshofes für Menschenrechte (EGMR). Den Bereich der grundrechtlichen Schutzpflichten der georgischen Verfassung auszuleuchten ist für eine relativ neue Rechtstaatlichkeit eines postsowjetischen Staates wichtig, um den Anstoß für eine dringend nötige Debatte zu geben.
La lecture de Georg Forster (Reise um die Welt) et de Cornelius de Pauw (Recherches philosophiques sur les Américains) montre que les réflexions philosophiques sur l’Amérique effectuées sous le signe de la globalité et tenant compte de deux phases de mondialisation accélérée, qui doivent être nettement différenciées l’une de l’autre, sont toujours également des réflexions philosophiques sur l’Europe, son rôle dans le monde, dans l’histoire du monde et dans le commerce mondial. L’Histoire des deux Indes de Guillaume-Thomas Raynal, qui connaissait très bien l’œuvre de Pauw, reprends avec des formulations presque inchangées le discours sur la signification éminente pour l’histoire du monde de la découverte de l’Amérique. Il élargit de façon programmatique la perspective des Indes occidentales avec celle des Indes orientales et donne au commerce - comme cela figure déjà dans le titre même de l’œuvre - une place importante et même décisive pour les bouleversements qui avaient transformé le monde de façon si fondamentale depuis la fin du XVe siècle. Le discours sur les régions extra-européennes et en particulier sur l’Amérique avait au seuil du XIXe siècle commencé à se transformer de façon fondamentale avec la Voyage dans les Régions équinoxiales du Nouveau Continent, publié entre 1805 et 1838 comme un gigantesque livre de voyage avec trente in-folio grand format par Alexander von Humboldt. Humboldt avait développé dans ce cadre depuis 1805 une quantité incroyable d’études les plus diverses qui en tant que science globalisée et globalisante discutaient sans cesse ses propres résultats de recherche dans une perspective transdisciplinaire et comparative à un niveau mondial. Il concevait la science - à quelques exceptions près - non pas comme une force destructrice au service de l’expansion européenne mais comme une pratique du savoir au service de toute l’humanité.