Refine
Has Fulltext
- yes (460) (remove)
Year of publication
- 2010 (460) (remove)
Document Type
- Article (149)
- Doctoral Thesis (83)
- Monograph/Edited Volume (72)
- Postprint (49)
- Review (27)
- Conference Proceeding (25)
- Part of Periodical (18)
- Preprint (16)
- Master's Thesis (10)
- Working Paper (5)
Language
- German (287)
- English (156)
- Multiple languages (8)
- Spanish (8)
- French (1)
Keywords
- Deutschland (19)
- Germany (19)
- Poland (18)
- Polen (18)
- Integration (17)
- Consolidation (15)
- European Union (15)
- Europäische Union (15)
- Vertiefung (15)
- Humboldt und Hispanoamerika (5)
Institute
- WeltTrends e.V. Potsdam (43)
- Institut für Jüdische Studien und Religionswissenschaft (35)
- Vereinigung für Jüdische Studien e. V. (33)
- Wirtschaftswissenschaften (31)
- Kommunalwissenschaftliches Institut (30)
- MenschenRechtsZentrum (30)
- Historisches Institut (27)
- Extern (25)
- Department Linguistik (22)
- Institut für Informatik und Computational Science (22)
Dieser Band versammelt Originaldaten aus einer Erhebung, die im Rahmen des SFB-Teilprojekts B6 „Kiezdeutsch“ im Frühjahr 2010 in Berlin und İzmir, Türkei, durchgeführt wurde. Sämtliche hier dokumentierten Daten wurden schriftlich produziert; sie stammen von drei verschiedenen Sprechergruppen: Jugendliche aus einem multiethnischen Berliner Wohngebiet, die untereinander Kiezdeutsch sprechen, Jugendliche aus einem monoethnischen Berliner Wohngebiet, in dem der traditionelle Berliner Dialekt vorherrscht, und türkische Jugendliche in İzmir, die Deutsch als Fremdsprache gesteuert erworben haben.
This is the 13th issue of the working paper series Interdisciplinary Studies on Information Structure (ISIS) of the Sonderforschungsbereich (SFB) 632. It is the first part of a series of Linguistic Fieldnote issues which present data collected by members of different projects of the SFB during fieldwork on various languages or dialects spoken worldwide. This part of the Fieldnote Series is dedicated to data from African languages. It contains contributions by Mira Grubic (A5) on Ngizim, and Susanne Genzel & Frank Kügler (D5) on Akan. The papers allow insights into various aspects of the elicitation of formal correlates of focus and related phenomena in different African languages investigated by the SFB in the second funding phase, especially in the period between 2007 and 2010.
rezensiertes Werk: Leshonot yehude Sefarad ve-ha-mizrach vesifruyotehem / Languages and literatures of Sephardic and Oriental Jews. - Jerusalem : Misgav Yerushalayim, 2009. - 484 S. [hebr.] + 434 S. [lat.], ; Ill.
Die Ergebnisse aus dreißig Fallstudien in deutschen Biotechnologieunternehmen wurden genutzt, um einen Leitfaden für Biotechnologieunternehmen zu entwickeln, der die Unternehmen im Prozess der Internationalisierung unterstützt. Der Leitfaden zur Internationalisierung umfasst: • Beschreibung relevanter Auslandsmärkte (USA, UK, Frankreich, Indien) • Auswahl geeigneter Auslandsmärkte • Ermittlung einer geeigneten Markteintrittsform • Darstellung von Good Practice in der Internationalisierung • Managementempfehlungen Im Rahmen der Fallstudien wurde die USA als wichtigster Auslandsmarkt für Dienstleistungen in der roten Biotechnologie (DLrBT) identifiziert, Großbritannien als wichtigster europäischer Markt. Auch Frankreich wurde als ein bedeutender Markt in Europa ermittelt, der für die Unternehmen jedoch sehr schwer zu bearbeiten ist aufgrund von hohen Markteintrittsbarrieren. Des weiteren wurde Indien, neben den genannten Märkten, als ein emergenter Markt in den Leitfaden aufgenommen. Mit dem Internationalisierungsleitfaden wurde ein Instrument entwickelt, das zu einer objektiveren Bewertung von Chancen und Risiken des Markteintritts in einen bestimmten Zielmarkt einen Beitrag leistet. Der Anwender wird angehalten sich systematisch mit den folgenden Themenkomplexen zu beschäftigen: • Was sind relevante k.o.-Kriterien für Zielmärkte? • Welche Umsatzchancen birgt der Zielmarkt? • Wie sind die generellen Verhältnisse im Zielmarkt (z.B. Käuferverhalten)? • Auf welche Akteure treffe ich im Zielmarkt (Kunden, Wettbewerber, Mittler)? • Wie trete ich am besten in den Markt ein? Im Leitfaden wird auch aufgezeigt, wie die Internationalisierung in „Good Practice“ Unternehmen der Biotechnologie abgelaufen ist. Die empirische Grundlage dafür bilden die Ergebnisse der Fallstudienarbeit. • Wie ist die Internationalisierung im Detail abgelaufen? • Wie erfolgte der Eintritt in Auslandsmärkte? • Was waren die Gründe für diesen Ablauf bzw. für diese Vorgehensweise? • Was waren die größten Barrieren? Im Leitfaden werden Rahmenbedingungen und Internationalisierungsstrategien diskutiert und das Born-Global Verhalten dem stufenartigen Vorgehen in der Internationalisierung gegenübergestellt und Managementempfehlungen präsentiert. Im Leitfaden werden Checklisten zur Länderauswahl, zur Einschätzung von Markteintrittsbarrieren und unternehmensinternen Kriterien für die Zielmarkterschließung angeboten. Der Leitfaden zur Internationalisierung ist eine praktische Handlungsanleitung für das Management von Biotechnologieunternehmen.
Left peripheral focus
(2010)
In Czech, German, and many other languages, part of the semantic focus
of the utterance can be moved to the left periphery of the clause. The main generalization is that only the leftmost accented part of the semantic focus can be moved. We propose that movement to the left periphery is generally triggered by an unspecific edge feature of C (Chomsky 2008) and its restrictions can be attributed to requirements of cyclic linearization, modifying the theory of cyclic linearization developed by Fox and Pesetsky (2005). The crucial assumption is that structural accent is a direct consequence of being linearized at merge, thus it is indirectly relevant for (locality restrictions on) movement. The absence of structural accent correlates with given-ness. Given elements may later receive (topic or contrastive) accents, which accounts for fronting in multiple focus/contrastive topic constructions. Without any additional assumptions, the model can account for movement of pragmatically unmarked elements to the left periphery (‘formal fronting’, Frey 2005). Crucially, the analysis makes no reference at all to concepts of information structure in the syntax, in line with the claim of Chomsky (2008) that UG specifies no direct link between syntax and information structure.
Este artículo analiza las láminas en el contexto de los escritos con los que se relacionaron, asociando las imágenes con los textos, para entender el sentido de su selección y lo que se buscaba mostrar con ellas. El texto se divide en tres partes: la primera, busca entender el sentido general de Vues y, en ese contexto, la selección de las láminas relativas a la actual Colombia; la segunda, analiza las láminas que se publicaron en esa obra sobre ese territorio y la tercera la forma como en esas láminas se trabajó la figura humana. Se plantea que el argumento básico de Vues era que las cordilleras se constituían en el entorno de los pueblos “civilizados” de América; la discusión de fondo, sin embargo, era si ya América estaba ocupada por europeos o si era todavía una continente “silvestre” que Europa podía redescubrir y reocupar, tal como sugiere Humboldt. Sobre este punto difícilmente podría haber acuerdo entre los criollos eurodescendientes y los europeos. Por este motivo, entre otros, es difícil argumentar que dentro del proceso de reconfiguración de la imagen americana que se estaba dando a finales del siglo XVIII y comienzos del siglo XIX hubo consenso alrededor de un autor, así fuera de la talla de Humboldt.
Bei der Entlassung von Mitarbeitern sind Interessenkonflikte vorprogrammiert. Gut begründete Positionen stehen sich bei diesen folgenreichen Personalentscheidungen oft unversöhnlich gegenüber. In den letzten Jahren waren vermehrt Kündigungen aufgrund von Bagatelldelikten in den Medien präsent. So wurde einer Kassiererin fristlos gekündigt, weil sie zwei Pfandbons unterschlagen haben sollte. Angesichts der Finanz- und Wirtschaftskrise, in der Banken Milliarden fehlinvestierten die Bankmanager jedoch kaum zur Rechenschaft gezogen wurden, verstärkte sich der Eindruck unbotmäßiger Härte und Ungerechtigkeit. Aber ist dieser Eindruck gerechtfertigt? Unterschiedliche Urteile der Instanzgerichte zu Bagatellkündigungen zeigen, dass im Arbeitsrecht nicht abschließend geklärt ist, wie in solchen Bagatellkündigungsfällen verfahren werden soll. Zudem stellt die Rechtskonformität einer Kündigung ohnehin kein abschließendes Kriterium dafür dar, ob sie auch aus ethischer Sicht gut ist. Das Ziel der Arbeit ist daher die Frage zu beantworten, wie Bagatellkündigungen moralisch zu bewerten sind. Ethisch relevante Aspekte werden zur Unterstützung von Personalentscheidungen in der Praxis identifiziert. Zunächst werden als Überblick die Ergebnisse einer Medienrecherche zu den Bagatellkündigungen dargestellt. Im ersten Untersuchungsschritt wird gefragt, warum eine Kündigung als Auflösung einer privaten Vertragsbeziehung rechtfertigungsbedürftig ist. An Praxisbeispielen wird dargestellt, welche Regelungen zum Kündigungsschutz bestehen und wie diese durch die Spezifika der Arbeitsbeziehung anhand ethischer Aspekte begründet werden. Bezugnehmend auf die Stakeholder-Sicht auf Wirtschaftsunternehmen und Überlegungen der Agenturtheorie wird gezeigt, dass die Beziehung im Arbeitskontext Spezifika aufweist, die übergebührliche Rechte und Pflichten begründen und auch in der psychologischen impliziten Vertragsbeziehung ihren Ausdruck finden. Es wird gezeigt, dass sich – insbesondere bei langjährigen Vertragsverhältnissen – ein prima-facie-Recht der Arbeitnehmer nicht gekündigt zu werden begründen lässt. Dieses Recht liegt im Status der Arbeitnehmer als rationalen moralfähigen Personen mit Anspruch auf Achtung ihrer Würde begründet. Aus der Personenhaftigkeit der Mitarbeiter entspringt der legitime Anspruch, rationale Gründe für Entscheidungen, welche sie betreffen, genannt zu bekommen. Es wird argumentiert, ein Arbeitgeber dürfe die Arbeitsbeziehung nur aufkündigen, wenn es hierfür objektiv gute Gründe gibt – ein grundsätzlicher Kündigungsschutz ist also nicht nur rechtlich sondern auch moralisch geboten. Daher schließt sich die Frage an, ob das Bagatelldelikt als Vertragspflichtverletzung ein guter objektiver Grund ist, welcher eine Kündigung rechtfertigt. Von Seiten der Kündigungsbefürworter wird argumentiert, das Vertrauensverhältnis sei durch die Tat zerstört. Daher wird geprüft, ob der Vertrauensverlust aufgrund des Bagatelldiebstahls ein guter Grund für die Kündigung ist. Ob das Bagatelldelikt als objektiver Grund für den Vertrauensverlust gewertet werden kann, hängt nun davon ab, ob der Mitarbeiter das Vertrauen tatsächlich missbraucht hat. Daraus folgt, dass sich die moralische Bewertung des Delikts an Prinzipien orientiert, die auch im Strafrecht gelten (Schuldprinzip, Unschuldsvermutung, Rechtsprinzips, Ultima-Ratio-Prinzip). Das Ergebnis der Untersuchung ist: Bagatelldelikte können aufgrund ihrer Spezifika anhand dieser gültigen Prinzipien schwerlich als objektiver Grund angesehen werden, der eine fristlose Kündigung ohne vorherige Abmahnung rechtfertigt. Abschließend wird gezeigt, dass auch die vermeintliche präventive Wirkung der Kündigung nicht als guter Kündigungsgrund gelten kann. Mit spezialpräventiven Gründen kann die Kündigung ebenso wenig wie mit positiver als auch negativer generalpräventiver Wirkungen begründet werden. Insbesondere stellt eine Kündigung aus generalpräventiven Zwecken eine illegitime Instrumentalisierung des Mitarbeiters als Person dar. Zwar können Kündigungen bei Bagatelldelikten durchaus nicht nur arbeitsrechtlich, sondern auch moralisch gerechtfertigt sein. Aufgrund der Spezifika der Bagatelldelikte und der Vertrauenskündigung ist die fristlose Kündigung in den meisten vorliegenden Fällen aus ethischer Sicht aber nicht akzeptabel. Hohe Anforderungen an die Objektivität des Vertrauensverlustes, der als Kündigungsgrund dienen soll, sind aufgrund der schwächeren Machtposition der Mitarbeiter notwendig und klug im Sinne der Wahrung des betrieblichen und gesellschaftlichen Friedens. Es wird daher für ein grundsätzliches Abmahnungsgebot bei Bagatelldiebstählen plädiert, welche weitergehend durch eine Wertgrenze definiert werden können. Weitere Maßnahmen, mit denen man missbräuchlichen Bagatelldeliktkündigungen vorbeugen oder auf Bagatelldelikte reagieren kann werden im Ausblick genannt.
Kriegsbericht oder Gaukeley?
(2010)
KoProV
(2010)
In der universitären Lehre ändert sich der Leitgedanke von einer qualifikationsorientierten hin zu einer kompetenzorientierten Ausbildung. Der Begriff Kompetenz lässt sich dabei grob in die fachlichen und die überfachlichen Kompetenzen unterteilen. Insbesondere die Vermittlung von Schlüsselqualifikationen hat in der Lehre von naturwissenschaftlichen Fachrichtungen nur unzureichend Einzug erhalten. Während der klassische Vorlesungsbetrieb auf den Erwerb von Fachkompetenz zielt, stoßen ausschließlich projektorientierte Veranstaltungen schnell an ihre Grenzen hinsichtlich der Teilnehmergröße oder Umfang der Lerninhalte. Um auf geeignete Art und Weise den Erwerb von überfachlichen Kompetenzen zu ermöglichen, bedarf es neuer didaktischer Konzepte, die eine engere Verknüpfung von klassischen Vorlesungen und dem projektorientierten Lernen vorsehen. In diesem Sinne versucht der skizzierte Ansatz der koordinierten Projektvorlesung(KoProV) Wissensvermittlung im Rahmen von Vorlesungseinheiten mit koordinierten Praxisphasen in Teilgruppen zu verbinden. Für eine erfolgreiche Durchführung und Erarbeitung des begleitenden Praxisprojektes durch mehrere Teilgruppen sind organisatorische und technische Randbedingungen zu beachten.
In diesem Beitrag wird der Hintergrund der internationalen Klimaverhandlungen erläutert und die Ergebnisse des Kopenhagen-Akkords vorgestellt. Angesichts des Scheiterns der Kopenhagener Konferenz muss die zeitnahe Schließung eines rechtlich bindenden, globalen Klimaabkommens als unwahrscheinlich gelten. Die Klimapolitik wird zukünftig verstärkt auf nationalstaatlicher und transnationaler Ebene erfolgen.
Klima nach Kopenhagen
(2010)
Klimapolitik ist Interessenpolitik, sehr harte sogar. Das zeigte der Gipfel in Kopenhagen. Als es zu konkreten Abmachungen kommen sollte, wurde gefeilscht, blockiert und schließlich ein nichts sagendes Papier verlesen. Im Schwerpunkt dieses Heftes analysieren Experten die Ursachen für das Scheitern in Kopenhagen und die Konsequenzen für die künftige Klimapolitik. Sie fragen nach der Rolle solcher Akteure wie China und Indien und der NGO, sie diskutieren den Faktor Klima in der Entwicklungspolitik und machen Vorschläge zur Finanzierung der Klimapolitik. Zudem setzen wir in diesem Heft den Streitplatz über die nationalen Interessen Deutschlands fort. In der Analyse wird die Frage nach der Zukunft der deutschen Wehrpflicht gestellt; in den WeltBlick nehmen wir die krisengeschüttelte EU, Ungarn nach den Wahlen und die Friedensproblematik in Kolumbien.
Klassifikationen von Computerspielen widmet sich den Begriffen, mit denen Computerspiele zu Klassifikationszwecken versehen werden. Eine repräsentative Auswahl an derartigen Klassifikationsmodellen, die die Arbeiten von Designern, Journalisten, Pädagogen, Laien und expliziten Computerspielforschern abdeckt, wird vorgestellt und hinsichtlich ihrer Anwendbarkeit zur eindeutigen Bestimmung konkreter Spiele bewertet. Dabei zeigen sich zwei grundlegend verschiedene Herangehensweisen an die Problematik: „Kategorisierungen“ stellen feste Kategorien auf, in die einzelne Spiel eindeutig einsortiert werden sollen, während „Typologien“ die einzelnen Elemente von Spielen untersuchen und klassifizieren. Beide Ansätze werden analysiert und ihre jeweiligen Vor- und Nachteile aufgezeigt. Da offensichtlich wird, dass die Klassifikation von Computerspielen in bedeutendem Maße vom jeweiligen zugrunde liegenden Verständnis davon, was ein „Computerspiel“ sei, abhängt, ist der Untersuchung der Klassifikationsmodelle eine Betrachtung dieser problematischen Begriffsdefinition vorangestellt, die beispielhaft an vier ausgewählten Aspekten durchgeführt wird.
Aus dem Inhalt: 1. Einleitung 2. Der deutsche Wohlfahrtsstaat im internationalen Vergleich 2.1 Das liberale Wohlfahrtsregime und der Prototyp USA 2.2 Das sozialdemokratische Wohlfahrtsregime und der Prototyp Schweden 2.3 Das konservative Wohlfahrtsregime und der Prototyp Deutschland 3. Kinderarmut im Spiegel der Sozialpolitik 4. Kinderarmut als familienpolitische Herausforderung 5. Fazit und Ausblick
Inhalt: - Internationale Kooperation in der Qualitätssicherung von Lehre und Studium (Pohlenz) - Mit dem Bachelor in den Beruf...? - Lehrerbildung in Vietnam (Van Cuong) - Interkulturelle Schule aus erster Hand (Nguyen, Bilir) - Schule und Studium im Ausland (Saeltzer) - Mehrsprachigkeit im Klassenzimmer (Mayr, Mezger, Paul) - Muttersprachliche Kompetenzen entwickeln (Haßler) - Sprachbarrieren überwinden (Wartgenstedt) - Grundlagen der Forschungsmethodologie als Studieninhalt (Jakupec) - Als Valeologin auf neuen Wegen nach Potsdam (Hintze) - Deutsch-Polnischer Studienaustausch und erweitertes Studienangebot (Zeißler) - Von Wiesbaden über New York, St. Louis und Washington nach Brandenburg - Chancen im Auslandsschuldienst (Saeltzer) - Interkultularität muss nicht international sein (Nowak) - Lehrerbildung braucht internationale Kontakte (Hübner) - Ausschreibung: Preis für die beste Lehr- und Studieninnovation an der Humanwissenschaftlichen Fakultät
Kennen Sie Randegg?
(2010)
Seit seiner berühmt-berüchtigten Friedenspreisrede von 1998 nimmt die Anzahl der literaturwissenschaftlichen und -politischen Publikationen, die Martin Walsers Werk eine nationalistische und antisemitische Tendenz unterstellen, zu. Bisweilen wird Walser unterstellt, er suche über die Ausschließung des Jüdischen das Nationale zu stärken und behaupte die Unversöhnlichkeit von Tätergemeinschaft und Opfergemeinschaft nach 1945. Das bislang in der Forschung wenig beachtete Hörspiel "Das Gespenst von Gattnau" lässt die Annahme einer anderen Tendenz zu: die Tendenz zur Versöhnung.
We present the tool Kato which is, to the best of our knowledge, the first tool for plagiarism detection that is directly tailored for answer-set programming (ASP). Kato aims at finding similarities between (segments of) logic programs to help detecting cases of plagiarism. Currently, the tool is realised for DLV programs but it is designed to handle various logic-programming syntax versions. We review basic features and the underlying methodology of the tool.
Kanonen im Wunderland
(2010)
Juden in Schwedt
(2010)
270 Jahre lang gab es jüdisches Leben in der brandenburgischen Stadt Schwedt an der Oder. Der Leser dieses Bandes nimmt teil an der wechselvollen Geschichte der jüdischen Menschen und ihrer Gemeinde. Der erste Jude, der sich im 17. Jahrhundert in Schwedt niederließ, war Bendix Levi. Nachdem sein Haus in Oderberg abgebrannt war, erhielt er von Kurfürst Friedrich Wilhelm die Genehmigung zum Aufenthalt in Schwedt. Die preußischen Könige wünschten jedoch, daß in den kleinen brandenburgischen Städten nur wenige Juden leben sollten. Deshalb bestand während des 18. Jahrhunderts die jüdische Gemeinschaft in Schwedt nur aus Angehörigen von drei Familien, nämlich von Bendix Levi, Simon Salomon und Wulff Salomon. Ihr Leben war geprägt vom Kampf um Aufenthaltsrecht und Handelserlaubnis. Solidarität untereinander war dabei nicht immer selbstverständlich, da oft das Aufenthaltsrecht des einen, wirklich oder vermeintlich, dem Recht des anderen entgegenstand. Das umfangreiche Quellenmaterial aus Berliner, brandenburgischen und Jerusalemer Archiven führt uns die Auswirkungen der restriktiven preußischen Judenpolitik auf das Leben der Schwedter Juden lebendig vor Augen und gibt uns außerdem Einblicke in jüdische Traditionen und Gebräuche. So werden wir Zeugen einer jüdischen Eidesleistung im Schwedter Rathaus und nehmen teil an der feierlichen Unterzeichnung eines Heiratsvertrages. Das Emanzipationsedikt von 1812 machte Juden endlich zu preußischen Staatsbürgern und erleichterte das Leben durch Niederlassungs- und Gewerbefreiheit. Dies führte bald zu einer beträchtlichen Vergrößerung der Schwedter jüdischen Gemeinde, der sich auch die jüdischen Einwohner des nahe gelegenen Städtchens Vierraden anschlossen. Als erster ließ sich Israel David Loewenheim aus Tütz / Westpreußen in Schwedt nieder. Ihm folgten aus seiner Heimatstadt nicht weniger als sieben weitere Familien. Zuzüge gab es auch aus anderen Städten, sodass bis zum späten 19. Jahrhundert die Zahl der jüdischen Einwohner Schwedts bis auf ca. 200 Personen zunahm. Ab ca. 1880 führten dann jedoch zahlreiche Wegzüge – besonders nach Berlin – wieder zu einer Verkleinerung der Gemeinde. Seit 1840 war Schwedt Amtssitz eines Rabbiners. Nathan Hirsch Kuttner blieb bis zu seiner Pensionierung im Jahr 1895 in Schwedt. Dieses lange Zusammenleben lässt ein harmonisches Verhältnis zwischen ihm und der Gemeinde vermuten. Dies war aber in den ersten Jahren durchaus nicht der Fall. Kuttner musste einige Jahre um Anerkennung in der Gemeinde kämpfen und sogar die Zahlung seines Gehalts gerichtlich durchsetzen. Der Bau einer neuen Synagoge im Jahr 1862 gab der Gemeinde neues Zusammengehörigkeitsgefühl und brachte Ruhe in die Auseinandersetzungen mit dem Rabbiner. Unter dem Eindruck des zunehmenden Antisemitismus im ausgehenden 19. und im 20. Jahrhundert schloss sich die Gemeinde Vereinen und Organisationen an, die sich den antisemitischen Angriffen entgegenzustellen versuchten, so 1894 dem „Deutsch-Israelitischen Gemeindebund“ und 1901 dem „Verein zur Abwehr des Antisemitismus“. Im Jahr 1922 gründete man die „Reuchlin Loge“ im Verband „Unabhängiger Orden Bne-Beriss“. Bald folgte das schnelle und vollständige Ende der jüdischen Gemeinde in Schwedt durch den nationalsozialistischen Massenmord. In der Datenbank der Gedenkstätte Yad Vashem in Jerusalem wird die Erinnerung an 60 namentlich bekannte ermordete Schwedter Juden aufbewahrt. Nachfahren von Überlebenden hat es in alle Erdteile verschlagen. Intensive genealogische Forschungen in Zusammenarbeit mit Peter Lowe aus Hertford (UK), einem Nachkommen der Familie Loewenheim, und Yehuda Meinhardt (Israel) machten es möglich eine Reihe von Familienstammbäumen zu rekonstruieren. Der Band wird mit der Beschreibung des jüdischen Friedhofs und der Erfassung der Grabinschriften abgeschlossen. Eine ausführliche Dokumentation mit Fotografien findet sich im Internet (www.uni-potsdam.de/juedische-friedhoefe).
Angestoßen durch Adolf von Harnacks Buch ‚Das Wesen des Christentum’ begann sich Leo Baeck (1873 – 1956) mit dem Judentum, und in dem Zusammenhang auch mit den Anfängen des Christentums in polemischer Art auseinanderzusetzen. Im Gegensatz zum Christus der Kirche möchte Baeck den Juden Jesus wieder entdecken. Dafür wertet er die Pharisäer auf und stellt Jesus in diese Gruppierung. Weiter rekonstruiert Baeck ein jüdisches Urevangelium, anhand dessen er aufzeigt, dass Jesus mit seiner Lehre vollständig innerhalb des Judentums geblieben sei. Im Gegensatz dazu vermische Paulus, der zwar als Jude geboren wurde, jüdische Inhalte mit denen der Mysterienkulte und erschaffe so etwas Neues, nämlich das Christentum. Diese Auffassung entwickelt Baeck in verschiedenen Schriften bis 1938. Nach der Shoah hat Paulus sogar mit seinen messianischen und apokalyptischen Vorstellungen für Baeck Platz im Judentum. Paulus verlasse es erst mit der positiven Antwort auf die Frage, ob der Messias schon gekommen sei. Leo Baeck war einer der Initiatoren des christlich-jüdischen Gesprächs. Seine Schriften geben den Impuls, über die strittigen Begriffe Gesetz und Gebot neu ins Gespräch zu kommen.
Gegenwärtig toben an die 40 Kriege und bewaffnete Konflikte in der Welt. Die meisten dieser Krisenherde spielen in den Medien eine untergeordnete Rolle und sind der öffentlichen Wahrnehmung entrückt: Sie werden vergessen. Der Autor diskutiert die Gründe für diese Entrückung: klar und kritisch, pointiert und provozierend.
Jahresbericht 2009
(2010)
Inhalt: 1. Allgemeiner Überblick 2. Organisationsstruktur des MRZ 2.1 Status des Zentrums 2.2 Leitung und Mitarbeiter 2.3 Beirat 2.4 Förderverein 3. Aktivitäten im Berichtszeitraum 3.1 Forschung 3.2 Promotionen 3.3 Wissenschaftliche Veranstaltungen 3.4 Lehre und Weiterbildung 3.5 Publikationen – Neuerscheinungen 2009 3.6 Bibliothek 3.7 Chronologie der Aktivitäten 4. Anhang 4.1 Bisherige Tagungen 4.2 Schriften des MenschenRechtsZentrums 4.3 Satzung des MRZ 4.4 Hinweise auf Web-Seiten anderer Einrichtungen 4.5 Abstract
rezensiertes Werk: Gartner, Isabella: Menorah : Jüdisches Familienblatt für Wissenschaft, Kunst und Literatur (1923–1932) ; Materialien zur Geschichte einer Wiener zionistischen Zeitschrift. - Würzburg : Königshausen & Neumann, 2009. - 356 S. ISBN 978-3-8260-3864-8
Die zehnten Präsidentschaftswahlen im Iran sorgten für einen Eklat. Ausgerechnet im Jubiläumsjahr, in dem man sich mit Stolz präsentieren wollte, erlebt die Islamische Republik ihren größten Legitimitätsverlust. Mit der Verkündung von Ahmadinedschads Wahlsieg löste das Regime eine Welle der Empörung aus, die bis heute nicht abgeklungen ist. Zwar konnten die Proteste den amtierenden Präsidenten nicht von seiner zweiten Amtszeit abhalten, doch der grüne Sommer hat seine Spuren in der Theokratie hinterlassen.
Fire prone Mediterranean-type vegetation systems like those in the Mediterranean Basin and South-Western Australia are global hot spots for plant species diversity. To ensure management programs act to maintain these highly diverse plant communities, it is necessary to get a profound understanding of the crucial mechanisms of coexistence. In the current literature several mechanisms are discussed. The objective of my thesis is to systematically explore the importance of potential mechanisms for maintaining multi-species, fire prone vegetation by modelling. The model I developed is spatially-explicit, stochastic, rule- and individual-based. It is parameterised on data of population dynamics collected over 18 years in the Mediterranean-type shrublands of Eneabba, Western Australia. From 156 woody species of the area seven plant traits have been identified to be relevant for this study: regeneration mode, annual maximum seed production, seed size, maximum crown diameter, drought tolerance, dispersal mode and seed bank type. Trait sets are used for the definition of plant functional types (PFTs). The PFT dynamics are simulated annual by iterating life history processes. In the first part of my thesis I investigate the importance of trade-offs for the maintenance of high diversity in multi-species systems with 288 virtual PFTs. Simulation results show that the trade-off concept can be helpful to identify non-viable combinations of plant traits. However, the Shannon Diversity Index of modelled communities can be high despite of the presence of ‘supertypes’. I conclude, that trade-offs between two traits are less important to explain multi-species coexistence and high diversity than it is predicted by more conceptual models. Several studies show, that seed immigration from the regional seed pool is essential for maintaining local species diversity. However, systematical studies on the seed rain composition to multi-species communities are missing. The results of the simulation experiments, as presented in part two of this thesis, show clearly, that without seed immigration the local species community found in Eneabba drifts towards a state with few coexisting PFTs. With increasing immigration rates the number of simulated coexisting PFTs and Shannon diversity quickly approaches values as also observed in the field. Including the regional seed input in the model is suited to explain more aggregated measures of the local plant community structure such as species richness and diversity. Hence, the seed rain composition should be implemented in future studies. In the third part of my thesis I test the sensitivity of Eneabba PFTs to four different climate change scenarios, considering their impact on both local and regional processes. The results show that climate change clearly has the potential to alter the number of dispersed seeds for most of the Eneabba PFTs and therefore the source of the ‘immigrants’ at the community level. A classification tree analysis shows that, in general, the response to climate change was PFT-specific. In the Eneabba sand plains sensitivity of a PFT to climate change depends on its specific trait combination and on the scenario of environmental change i.e. development of the amount of rainfall and the fire frequency. This result emphasizes that PFT-specific responses and regional process seed immigration should not be ignored in studies dealing with the impact of climate change on future species distribution. The results of the three chapters are finally analysed in a general discussion. The model is discussed and improvements and suggestions are made for future research. My work leads to the following conclusions: i) It is necessary to support modelling with empirical work to explain coexistence in species-rich plant communities. ii) The chosen modelling approach allows considering the complexity of coexistence and improves the understanding of coexistence mechanisms. iii) Field research based assumptions in terms of environmental conditions and plant life histories can relativise the importance of more hypothetic coexistence theories in species-rich systems. In consequence, trade-offs can play a lower role than predicted by conceptual models. iv) Seed immigration is a key process for local coexistence. Its alteration because of climate change should be considered for prognosis of coexistence. Field studies should be carried out to get data on seed rain composition.
Inverse agonist and neutral antagonist actions of synthetic compounds at an insect 5-HT1 receptor
(2010)
Background and purpose: 5-Hydroxytryptamine (5-HT) has been shown to control and modulate many physiological and behavioural functions in insects. In this study, we report the cloning and pharmacological properties of a 5-HT1 receptor of an insect model for neurobiology, physiology and pharmacology. Experimental approach: A cDNA encoding for the Periplaneta americana 5-HT1 receptor was amplified from brain cDNA. The receptor was stably expressed in HEK 293 cells, and the functional and pharmacological properties were determined in cAMP assays. Receptor distribution was investigated by RT-PCR and by immunocytochemistry using an affinity-purified polyclonal antiserum. Key results: The P. americana 5-HT1 receptor (Pea5-HT1) shares pronounced sequence and functional similarity with mammalian 5-HT1 receptors. Activation with 5-HT reduced adenylyl cyclase activity in a dose-dependent manner. Pea5-HT1 was expressed as a constitutively active receptor with methiothepin acting as a neutral antagonist, and WAY 100635 as an inverse agonist. Receptor mRNA was present in various tissues including brain, salivary glands and midgut. Receptor-specific antibodies showed that the native protein was expressed in a glycosylated form in membrane samples of brain and salivary glands. Conclusions and implications: This study marks the first pharmacological identification of an inverse agonist and a neutral antagonist at an insect 5-HT1 receptor. The results presented here should facilitate further analyses of 5-HT1 receptors in mediating central and peripheral effects of 5-HT in insects.
The origin and evolution of granites has been widely studied because granitoid rocks constitute a major portion of the Earth ́s crust. The formation of granitic magma is, besides temperature mainly triggered by the water content of these rocks. The presence of water in magmas plays an important role due to the ability of aqueous fluids to change the chemical composition of the magma. The exsolution of aqueous fluids from melts is closely linked to a fractionation of elements between the two phases. Then, aqueous fluids migrate to shallower parts of the Earth ́s crust because of it ́s lower density compared to that of melts and adjacent rocks. This process separates fluids and melts, and furthermore, during the ascent, aqueous fluids can react with the adjacent rocks and alter their chemical signature. This is particularly impor- tant during the formation of magmatic-hydrothermal ore deposits or in the late stages of the evolution of magmatic complexes. For a deeper insight to these processes, it is essential to improve our knowledge on element behavior in such systems. In particular, trace elements are used for these studies and petrogenetic interpretations because, unlike major elements, they are not essential for the stability of the phases involved and often reflect magmatic processes with less ambiguity. However, for the majority of important trace elements, the dependence of the geochemical behavior on temperature, pressure, and in particular on the composition of the system are only incompletely or not at all experimentally studied. Former studies often fo- cus on the determination of fluid−melt partition coefficients (Df/m=cfluid/cmelt) of economically interesting elements, e.g., Mo, Sn, Cu, and there are some partitioning data available for ele- ments that are also commonly used for petrological interpretations. At present, no systematic experimental data on trace element behavior in fluid−melt systems as function of pressure, temperature, and chemical composition are available. Additionally, almost all existing data are based on the analysis of quenched phases. This results in substantial uncertainties, particularly for the quenched aqueous fluid because trace element concentrations may change upon cooling. The objective of this PhD thesis consisted in the study of fluid−melt partition coefficients between aqueous solutions and granitic melts for different trace elements (Rb, Sr, Ba, La, Y, and Yb) as a function of temperature, pressure, salinity of the fluid, composition of the melt, and experimental and analytical approach. The latter included the refinement of an existing method to measure trace element concentrations in fluids equilibrated with silicate melts di- rectly at elevated pressures and temperatures using a hydrothermal diamond-anvil cell and synchrotron radiation X-ray fluorescence microanalysis. The application of this in-situ method enables to avoid the main source of error in data from quench experiments, i.e., trace element concentration in the fluid. A comparison of the in-situ results to data of conventional quench experiments allows a critical evaluation of quench data from this study and literature data. In detail, starting materials consisted of a suite of trace element doped haplogranitic glasses with ASI varying between 0.8 and 1.4 and H2O or a chloridic solution with m NaCl/KCl=1 and different salinities (1.16 to 3.56 m (NaCl+KCl)). Experiments were performed at 750 to 950◦C and 0.2 or 0.5 GPa using conventional quench devices (externally and internally heated pressure vessels) with different quench rates, and at 750◦C and 0.2 to 1.4 GPa with in-situ analysis of the trace element concentration in the fluids. The fluid−melt partitioning data of all studied trace elements show 1. a preference for the melt (Df/m < 1) at all studied conditions, 2. one to two orders of magnitude higher Df/m using chloridic solutions compared to experiments with H2O, 3. a clear dependence on the melt composition for fluid−melt partitioning of Sr, Ba, La, Y, and Yb in experiments using chloridic solutions, 4. quench rate−related differences of fluid−melt partition coefficients of Rb and Sr, and 5. distinctly higher fluid−melt partitioning data obtained from in-situ experiments than from comparable quench runs, particularly in the case of H2O as starting solution. The data point to a preference of all studied trace elements for the melt even at fairly high salinities, which contrasts with other experimental studies, but is supported by data from studies of natural co-genetically trapped fluid and melt inclusions. The in-situ measurements of trace element concentrations in the fluid verify that aqueous fluids will change their composition upon cooling, which is in particular important for Cl free systems. The distinct differences of the in-situ results to quench data of this study as well as to data from the literature signify the im- portance of a careful fluid sampling and analysis. Therefore, the direct measurement of trace element contents in fluids equilibrated with silicate melts at elevated PT conditions represents an important development to obtain more reliable fluid−melt partition coefficients. For further improvement, both the aqueous fluid and the silicate melt need to be analyzed in-situ because partitioning data that are based on the direct measurement of the trace element content in the fluid and analysis of a quenched melt are still not completely free of quench effects. At present, all available data on element complexation in aqueous fluids in equilibrium with silicate melts at high PT are indirectly derived from partitioning data, which involves in these experiments assumptions on the species present in the fluid. However, the activities of chemical components in these partitioning experiments are not well constrained, which is required for the definition of exchange equilibria between melt and fluid species. For example, the melt-dependent variation of partition coefficient observed for Sr imply that this element can not only be complexed by Cl− as suggested previously. The data indicate a more complicated complexation of Sr in the aqueous fluid. To verify this hypothesis, the in-situ setup was also used to determine strontium complexation in fluids equilibrated with silicate melts at desired PT conditions by the application of X-ray absorption near edge structure (XANES) spectroscopy. First results show a strong effect of both fluid and melt composition on the resulting XANES spectra, which indicates different complexation environments for Sr.
Die Evaluierung von Lehrveranstaltungen hat in vielen Lehreinrichtungen eine lange Tradition. In diesen klassischen Evaluierungsszenarien werden einmalig pro Semester Umfragebögen an die Studierenden verteilt und anschließend manuell ausgewertet. Die Ergebnisse sind dann zumeist am Ende der Vorlesungszeit vorhanden und geben einen punktuellen Einblick in die Qualität der Lehrveranstaltung bis zum Zeitpunkt der durchgeführten Evaluation. In diesem Artikel stellen wir das Konzept des Rapid Feedback, seine Einsatzmöglichkeiten in universitären Lehrveranstaltungen und eine prototypische Integration in eine koaktive Lern- und Arbeitsumgebung vor.
Für die Integration und den Bedarf der hochqualifizierten Migranten auf dem Arbeitsmarkt in Deutschland gibt es viele Überlegungen, aber noch keine ausreichenden Lösungen. Dieser Artikel beschreibt eine praktische Lösung über die Umsetzung des Konzepts für die Qualifizierung der akademischen Migranten am Beispiel eines Studienprogramms in Informatik an der Universität Oldenburg.
This thesis contains quantum chemical models and force field calculations for the RuBisCO isotope effect, the spectral characteristics of the blue-light sensor BLUF and the light harvesting complex II. The work focuses on the influence of the environment on the corresponding systems. For RuBisCO, it was found that the isotopic effect is almost unaffected by the environment. In case of the BLUF domain, an amino acid was found to be important for the UV/vis spectrum, but unaccounted for in experiments so far (Ser41). The residue was shown to be highly mobile and with a systematic influence on the spectral shift of the BLUF domain chromophore (flavin). Finally, for LHCII it was found that small changes in the geometry of a Chlorophyll b/Violaxanthin chromophore pair can have strong influences regarding the light harvesting mechanism. Especially here it was seen that the proper description of the environment can be critical. In conclusion, the environment was observed to be of often unexpected importance for the molecular properties, and it seems not possible to give a reliable estimate on the changes created by the presence of the environment.
Flood design necessitates discharge estimates for large recurrence intervals. However, in a flood frequency analysis, the uncertainty of discharge estimates increases with higher recurrence intervals, particularly due to the small number of available flood data. Furthermore, traditional distribution functions increase unlimitedly without consideration of an upper bound discharge. Hence, additional information needs to be considered which is representative for high recurrence intervals. Envelope curves which bound the maximum observed discharges of a region are an adequate regionalisation method to provide additional spatial information for the upper tail of a distribution function. Probabilistic regional envelope curves (PRECs) are an extension of the traditional empirical envelope curve approach, in which a recurrence interval is estimated for a regional envelope curve (REC). The REC is constructed for a homogeneous pooling group of sites. The estimation of this recurrence interval is based on the effective sample years of data considering the intersite dependence among all sites of the pooling group. The core idea of this thesis was an improvement of discharge estimates for high recurrence intervals by integrating empirical and probabilistic regional envelope curves into the flood frequency analysis. Therefore, the method of probabilistic regional envelope curves was investigated in detail. Several pooling groups were derived by modifying candidate sets of catchment descriptors and settings of two different pooling methods. These were used to construct PRECs. A sensitivity analysis shows the variability of discharges and the recurrence intervals for a given site due to the different assumptions. The unit flood of record which governs the intercept of PREC was determined as the most influential aspect. By separating the catchments into nested and unnested pairs, the calculation algorithm for the effective sample years of data was refined. In this way, the estimation of the recurrence intervals was improved, and therefore the use of different parameter sets for nested and unnested pairs of catchments is recommended. In the second part of this thesis, PRECs were introduced into a distribution function. Whereas in the traditional approach only discharge values are used, PRECs provide a discharge and its corresponding recurrence interval. Hence, a novel approach was developed, which allows a combination of the PREC results with the traditional systematic flood series while taking the PREC recurrence interval into consideration. An adequate mixed bounded distribution function was presented, which in addition to the PREC results also uses an upper bound discharge derived by an empirical envelope curve. By doing so, two types of additional information which are representative for the upper tail of a distribution function were included in the flood frequency analysis. The integration of both types of additional information leads to an improved discharge estimation for recurrence intervals between 100 and 1000 years.
Background
Micrometer resolution placement and immobilization of probe molecules is an important step in the preparation of biochips and a wide range of lab-on-chip systems. Most known methods for such a deposition of several different substances are costly and only suitable for a limited number of probes. In this article we present a flexible procedure for simultaneous spatially controlled immobilization of functional biomolecules by molecular ink lithography.
Results
For the bottom-up fabrication of surface bound nanostructures a universal method is presented that allows the immobilization of different types of biomolecules with micrometer resolution. A supporting surface is biotinylated and streptavidin molecules are deposited with an AFM (atomic force microscope) tip at distinct positions. Subsequent incubation with a biotinylated molecule species leads to binding only at these positions. After washing streptavidin is deposited a second time with the same AFM tip and then a second biotinylated molecule species is coupled by incubation. This procedure can be repeated several times. Here we show how to immobilize different types of biomolecules in an arbitrary arrangement whereas most common methods can deposit only one type of molecules. The presented method works on transparent as well as on opaque substrates. The spatial resolution is better than 400 nm and is limited only by the AFM's positional accuracy after repeated z-cycles since all steps are performed in situ without moving the supporting surface. The principle is demonstrated by hybridization to different immobilized DNA oligomers and was validated by fluorescence microscopy.
Conclusions
The immobilization of different types of biomolecules in high-density microarrays is a challenging task for biotechnology. The method presented here not only allows for the deposition of DNA at submicrometer resolution but also for proteins and other molecules of biological relevance that can be coupled to biotin.
Russian Jews who left the Former Soviet Union (FSU) and its Successor States after 1989 are considered as one of the best qualified migrants group worldwide. In the preferred countries of destination (Israel, the United States and Germany) they are well-known for cultural self-assertion, strong social upward mobility and manifold forms of self organisation and empowerment. Using Suzanne Kellers sociological model of “Strategic Elites”, it easily becomes clear that a huge share of the Russian Jewish Immigrants in Germany and Israel are part of various elites due to their qualification and high positions in the FSU – first of all professional, cultural and intellectual elites (“Intelligentsija”). The study aimed to find out to what extent developments of cultural self-assertion, of local and transnational networking and of ethno-cultural empowerment are supported or even initiated by the immigrated (Russian Jewish) Elites. The empirical basis for this study have been 35 half-structured expert interviews with Russian Jews in both countries (Israel, Germany) – most of them scholars, artists, writers, journalists/publicists, teachers, engineers, social workers, students and politicians. The qualitative analysis of the interview material in Israel and Germany revealed that there are a lot of commonalities but also significant differences. It was obvious that almost all of the interview partners remained to be linked with Russian speaking networks and communities, irrespective of their success (or failure) in integration into the host societies. Many of them showed self-confidence with regard to the groups’ amazing professional resources (70% of the adults with academic degree), and the cultural, professional and political potential of the FSU immigrants was usually considered as equal to those of the host population(s). Thus, the immigrants’ interest in direct societal participation and social acceptance was accordingly high. Assimilation was no option. For the Russian Jewish “sense of community” in Israel and Germany, Russian Language, Arts and general Russian culture have remained of key importance. The Immigrants do not feel an insuperable contradiction when feeling “Russian” in cultural terms, “Jewish” in ethnical terms and “Israeli” / “German” in national terms – in that a typical case of additive identity shaping what is also significant for the Elites of these Immigrants. Tendencies of ethno-cultural self organisation – which do not necessarily hinder impressing individual careers in the new surroundings – are more noticeable in Israel. Thus, a part of the Russian Jewish Elites has responded to social exclusion, discrimination or blocking by local population (and by local elites) with intense efforts to build (Russian Jewish) Associations, Media, Educational Institutions and even Political Parties. All in all, the results of this study do very much contradict popular stereotypes of the Russian Jewish Immigrant as a pragmatic, passive “Homo Sovieticus”. Among the Interview Partners in this study, civil-societal commitment was not the exception but rather the rule. Traditional activities of the early, legendary Russian „Intelligentsija“ were marked by smooth transitions from arts, education and societal/political commitment. There seem to be certain continuities of this self-demand in some of the Russian Jewish groups in Israel. Though, nothing comparable could be drawn from the Interviews with the Immigrants in Germany. Thus, the myth and self-demand of Russian “Intelligentsija” is irrelevant for collective discourses among Russian Jews in Germany.
Im Dienste seiner Majestät
(2010)
In a very simplified view, the plant leaf growth can be reduced to two processes, cell division and cell expansion, accompanied by expansion of their surrounding cell walls. The vacuole, as being the largest compartment of the plant cell, plays a major role in controlling the water balance of the plant. This is achieved by regulating the osmotic pressure, through import and export of solutes over the vacuolar membrane (the tonoplast) and by controlling the water channels, the aquaporins. Together with the control of cell wall relaxation, vacuolar osmotic pressure regulation is thought to play an important role in cell expansion, directly by providing cell volume and indirectly by providing ion and pH homestasis for the cytosoplasm. In this thesis the role of tonoplast protein coding genes in cell expansion in the model plant Arabidopsis thaliana is studied and genes which play a putative role in growth are identified. Since there is, to date, no clearly identified protein localization signal for the tonoplast, there is no possibility to perform genome-wide prediction of proteins localized to this compartment. Thus, a series of recent proteomic studies of the tonoplast were used to compile a list of cross-membrane tonoplast protein coding genes (117 genes), and other growth-related genes from notably the growth regulating factor (GRF) and expansin families were included (26 genes). For these genes a platform for high-throughput reverse transcription quantitative real time polymerase chain reaction (RT-qPCR) was developed by selecting specific primer pairs. To this end, a software tool (called QuantPrime, see http://www.quantprime.de) was developed that automatically designs such primers and tests their specificity in silico against whole transcriptomes and genomes, to avoid cross-hybridizations causing unspecific amplification. The RT-qPCR platform was used in an expression study in order to identify candidate growth related genes. Here, a growth-associative spatio-temporal leaf sampling strategy was used, targeting growing regions at high expansion developmental stages and comparing them to samples taken from non-expanding regions or stages of low expansion. Candidate growth related genes were identified after applying a template-based scoring analysis on the expression data, ranking the genes according to their association with leaf expansion. To analyze the functional involvement of these genes in leaf growth on a macroscopic scale, knockout mutants of the candidate growth related genes were screened for growth phenotypes. To this end, a system for non-invasive automated leaf growth phenotyping was established, based on a commercially available image capture and analysis system. A software package was developed for detailed developmental stage annotation of the images captured with the system, and an analysis pipeline was constructed for automated data pre-processing and statistical testing, including modeling and graph generation, for various growth-related phenotypes. Using this system, 24 knockout mutant lines were analyzed, and significant growth phenotypes were found for five different genes.
Kompositionsdaten sind mehrdimensionale Daten, deren Komponenten im Wesentlichen nur relative Informationen enthalten (und die sich deshalb meist zu einem festen Wert wie 1 oder 100% addieren). Wegen ihres geschlossenen Charakters sind sie mit herkömmlichen Methoden (basierend auf einem n-dimensionalen Raum ℝⁿ) nicht konsistent analysierbar. Methoden der Kompositionsdatenanalyse existieren seit etwa 30 Jahren, sie werden kurz vorgestellt. Ein besonderes Problem ist die adäquate Darstellung von Kompositionsdaten. Für (bis zu) drei Komponenten gibt es verschiedene Methoden, für vier und mehr hingegen sind allen Komponenten gleichartig gerecht werdende Darstellungen kaum vorhanden. Ausgehend von den etablierten Methoden der Kompositionsdatenanalyse wird eine neue Darstellungsform vorgeschlagen, Vor- und Nachteile werden theoretisch and anhand von Beispielen diskutiert.
Das Ziel dieser Arbeit ist die Untersuchung der aktiven Komponenten und ihrer Wechselwirkungen in teilorganischen Hybrid-Solarzellen. Diese bestehen aus einer dünnen Titandioxidschicht, kombiniert mit einer dünnen Polymerschicht. Die Effizienz der Hybrid-Solarzellen wird durch die Lichtabsorption im Polymer, die Dissoziation der gebildeten Exzitonen an der aktiven Grenzfläche zwischen TiO2 und Polymer, sowie durch Generation und Extraktion freier Ladungsträger bestimmt. Zur Optimierung der Solarzellen wurden grundlegende physikalische Wechselwirkungen zwischen den verwendeten Materialen sowie der Einfluss verschiedener Herstellungsparameter untersucht. Unter anderem wurden Fragen zum optimalen Materialeinsatz und Präparationsbedingungen beantwortet sowie grundlegende Einflüsse wie Schichtmorphologie und Polymerinfiltration näher betrachtet. Zunächst wurde aus unterschiedlich hergestelltem Titandioxid (Akzeptor-Schicht) eine Auswahl für den Einsatz in Hybrid-Solarzellen getroffen. Kriterium war hierbei die unterschiedliche Morphologie aufgrund der Oberflächenbeschaffenheit, der Film-Struktur, der Kristallinität und die daraus resultierenden Solarzelleneigenschaften. Für die anschließenden Untersuchungen wurden mesoporöse TiO2–Filme aus einer neuen Nanopartikel-Synthese, welche es erlaubt, kristalline Partikel schon während der Synthese herzustellen, als Elektronenakzeptor und konjugierte Polymere auf Poly(p-Phenylen-Vinylen) (PPV)- bzw. Thiophenbasis als Donatormaterial verwendet. Bei der thermischen Behandlung der TiO2-Schichten erfolgt eine temperaturabhängige Änderung der Morphologie, jedoch nicht der Kristallstruktur. Die Auswirkungen auf die Solarzelleneigenschaften wurden dokumentiert und diskutiert. Um die Vorteile der Nanopartikel-Synthese, die Bildung kristalliner TiO2-Partikel bei tiefen Temperaturen, nutzen zu können, wurden erste Versuche zur UV-Vernetzung durchgeführt. Neben der Beschaffenheit der Oxidschicht wurde auch der Einfluss der Polymermorphologie, bedingt durch Lösungsmittelvariation und Tempertemperatur, untersucht. Hierbei konnte gezeigt werden, dass u.a. die Viskosität der Polymerlösung die Infiltration in die TiO2-Schicht und dadurch die Effizienz der Solarzelle beeinflusst. Ein weiterer Ansatz zur Erhöhung der Effizienz ist die Entwicklung neuer lochleitender Polymere, welche möglichst über einen weiten spektralen Bereich Licht absorbieren und an die Bandlücke des TiO2 angepasst sind. Hierzu wurden einige neuartige Konzepte, z.B. die Kombination von Thiophen- und Phenyl-Einheiten näher untersucht. Auch wurde die Sensibilisierung der Titandioxidschicht in Anlehnung an die höheren Effizienzen der Farbstoffzellen in Betracht gezogen. Zusammenfassend konnten im Rahmen dieser Arbeit wichtige Einflussparameter auf die Funktion hybrider Solarzellen identifiziert und z.T. näher diskutiert werden. Für einige limitierende Faktoren wurden Konzepte zur Verbesserung bzw. Vermeidung vorgestellt.
La ponencia se centrará en analizar la relación de Humboldt con el Perú a partir de los recursos naturales que ofrecía el virreinato peruano y que llamaron la atención del científico alemán. Dentro de ellos cabe destacar los yacimientos mineros que, debido a su formación minerológica, le resultaron de gran ínterés; sobre todo las minas de Hualgayoc, Cajamarca, y el mineral de Cerro de Pasco. Otro recurso que destacó en sus escritos fue el del guano de las islas y su uso como fertilizante y, adicionalmente, se preocupó por la recesión en la producción y exportación de la quinina, cascarilla o chinchona, que era ampliamente apreciada en Europa por sus efectos medicinales. Marginalmente se abordarán otros productos a los cuales el viajero les dedicó algunas reflexiones como la caña de azúcar y el algodón. La ponencia concluirá con una visión de la sociedad colonial peruana, enfatizando la presencia de los sectores sociales que se beneficiaban de la explotación y comercialización de estos bienes y de la mano de obra que operaba en los centros productivos de la costa y sierra del virreinato, tanto indígena como esclava.
No tenemos parecidas noticias sobre el recuerdo local en cuanto a Humboldt como lo tenemos en el caso de las cartas de Ferdinand Bellermann en Venezuela. Lo que si tenemos son las fuentes en Kraków que demuestran el gran impacto de Humboldt entre la élite política y económica en la Habana (1800-1830) y a la vez sus redes de comunicación. En la historia intelectual de Cuba el nombre de Humboldt esta intimamente ligado con el cosmopolitismo de las élites hispano-cubanas (Arango, conde Villanueva, Sagra, Saco) como con el concepto de la nación cubana (Luz y Caballero, Vidal Morales y Morales, Leuchsenring, Ortiz, Barnet y otros). Los últimos ganaron la hegemonía discursiva e hicieron a Humboldt “suyo” (“segundo descubridor de Cuba”), aunque este Humboldt eurocriollo para ellos también tenía la función de impedir cambios fundamentales en el sistema de esclavitud o comportamiento frente a los problemas de la post-emancipación en Cuba.
Large open-source software projects involve developers with a wide variety of backgrounds and expertise. Such software projects furthermore include many internal APIs that developers must understand and use properly. According to the intended purpose of these APIs, they are more or less frequently used, and used by developers with more or less expertise. In this paper, we study the impact of usage patterns and developer expertise on the rate of defects occurring in the use of internal APIs. For this preliminary study, we focus on memory management APIs in the Linux kernel, as the use of these has been shown to be highly error prone in previous work. We study defect rates and developer expertise, to consider e.g., whether widely used APIs are more defect prone because they are used by less experienced developers, or whether defects in widely used APIs are more likely to be fixed.
How much is too much?
(2010)
Although dietary nutrient intake is often adequate, nutritional supplement use is common among elite athletes. However, high-dose supplements or the use of multiple supplements may exceed the recommended daily allowance (RDA) of particular nutrients or even result in a daily intake above tolerable upper limits (UL). The present case report presents nutritional intake data and supplement use of a highly trained male swimmer competing at international level. Habitual energy and micronutrient intake were analysed by 3 d dietary reports. Supplement use and dosage were assessed, and total amount of nutrient supply was calculated. Micronutrient intake was evaluated based on RDA and UL as presented by the European Scientific Committee on Food, and maximum permitted levels in supplements (MPL) are given. The athlete’s diet provided adequate micronutrient content well above RDA except for vitamin D. Simultaneous use of ten different supplements was reported, resulting in excess intake above tolerable UL for folate, vitamin E and Zn. Additionally, daily supplement dosage was considerably above MPL for nine micronutrients consumed as artificial products. Risks and possible side effects of exceeding UL by the athlete are discussed. Athletes with high energy intake may be at risk of exceeding UL of particular nutrients if multiple supplements are added. Therefore, dietary counselling of athletes should include assessment of habitual diet and nutritional supplement intake. Educating athletes to balance their diets instead of taking supplements might be prudent to prevent health risks
that may occur with long-term excess nutrient intake.
Rezensiertes Werk: Holger Th. Gräf, Lena Haunert und Christoph Kampmann (Hrsg.), Adliges Leben am Ausgang des Ancien Régime. Die Tagebuchaufzeichnungen (1754-1798) des Georg Ernst von und zu Gilsa, & Dies. (Hrsg.), Krieg in Amerika und Aufklärung in Hessen. Die Privatbriefe (1772-1784) an Georg Ernst von und zu Gilsa, Marburg 2010
Inhalt:
- Michael Zeuske: Humboldt en Cuba, 1800/1801 y 1804. Huellas de un enigma
- Reinaldo Funes Monzote: El cambio socio-ambiental en Cuba a fines del siglo XVIII e inicios del XIX. Impresiones y legado de Alejandro Humboldt
- Segundo E. Moreno Yánez, Christiana Borchart de Moreno: Los Andes ecuatoriales: entre la estética y la ciencia. Las catorce láminas relativas al Ecuador en la obra “Vues des Cordillères et Monuments des Peuples Indigènes de l’Amérique” de Alexander von Humboldt
- Scarlett O’Phelan Godoy: Humboldt, el Perú y sus recursos naturales: entre la plata y el guano
- Marta Clemencia Herrera Ángel: Las ocho láminas de Humboldt sobre Colombia en Vistas de las cordilleras y monumentos de los pueblos indígenas de América (1810)
- Ulrike Leitner: Über die Quellen der mexikanischen Tafeln der „Ansichten der Kordilleren“ im Nachlass Alexander von Humboldts
- Carlos Sanhueza: “He sentido mucho no haber podido penetrar más lejos hacia el Sur”. Alexander von Humboldt y Chile.
Inhalt:
Carolin Schulz: „Ein scharfsinniger Kopf aus Berlin!“ Ein unveröffentlichtes Empfehlungsschreiben für Leopold von Buch
- Carolina Depetris: El orientalismo como episteme: Frédéric de Waldeck y las ruinas mayas
- Ottmar Ette: Réflexions européennes sur deux phases de mondialisation accélérée chez Cornelius de Pauw, Georg Forster, Guillaume-Thomas Raynal et Alexandre de Humboldt
- Eberhard Knobloch: Nomos und physis – Alexander von Humboldt und die Tradition antiker Denkweisen und Vorstellungen
Miguel-Ángel Puig-Samper, Sandra Rebok: Charles Darwin and Alexander von Humboldt: An exchange of looks between two famous naturalists
- Georg Schifko: Jules Vernes literarische Thematisierung der Kanarischen Inseln als Hommage an Alexander v. Humboldt
- Antonio Carlos Vitte, Roberison Wittgenstein Dias de Silveira: Alexander von Humboldt y la génesis de la geografía física moderna
- Ingo Schwarz: Eine Alexander-von-Humboldt-Forscherin mit Profil: Ilse Jahn (1922-2010)
- Romy Werther, Ingo Schwarz: Ilse Jahn: Schriften zur Alexander-von-Humboldt-Forschung – Eine Auswahlbibliographie
- Ilse Jahn: Die anatomischen Studien der Brüder Humboldt unter Justus Christian Loder in Jena
This paper discusses different options for institutional arrangements providing network infrastructure on the basis of the ‘transaction cost economic’ approach using the example of highway infrastructure. Drawing on lessons learned from highway provision in three European countries (Italy, Poland and Spain), five models of highway provision are discussed: public authorities, public enterprises, user clubs, private partnerships or a regulated private market. Three options to regulate the private market are presented: a rate-of-return regulation, a price-cap-regulation and franchise bidding. The main factor that makes private construction and provision expensive are the risk premiums of private companies that are incorporated for political risks. It is argued that the optimal model of highway provision depends on each country-specific situation. This is mainly influenced by the regulatory experience within the country on one hand and by the stage of highway development on the other.
It has been suggested that coronal mass ejections (CMEs) remove the magnetic he-licity of their coronal source region from the Sun. Such removal is often regarded to be necessary due to the hemispheric sign preference of the helicity, which inhibits a simple annihilation by reconnection between volumes of opposite chirality. Here we monitor the relative magnetic he-licity contained in the coronal volume of a simulated flux rope CME, as well as the upward flux of relative helicity through horizontal planes in the simulation box. The unstable and erupting flux rope carries away only a minor part of the initial relative helicity; the major part remains in the volume. This is a consequence of the requirement that the current through an expanding loop must decrease if the magnetic energy of the configuration is to decrease as the loop rises, to provide the kinetic energy of the CME.
Mit der 4. Tagung zur Hochschuldidaktik Informatik wird eine Reihe fortgesetzt, die ihren Anfang 1998 in Stuttgart unter der Überschrift „Informatik und Ausbildung“ genommen hat. Seither dienen diese Tagungen den Lehrenden im Bereich der Hochschulinformatik als Forum der Information und des Diskurses über aktuelle didaktische und bildungspolitische Entwicklungen im Bereich der Informatikausbildung. Aktuell zählen dazu insbesondere Fragen der Bildungsrelevanz informatischer Inhalte und der Herausforderung durch eine stärkere Kompetenzorientierung in der Informatik. Die eingereichten Beiträge zur HDI 2010 in Paderborn veranschaulichen unterschiedliche Bemühungen, sich mit relevanten Problemen der Informatikdidaktik an Hochschulen in Deutschland (und z. T. auch im Ausland) auseinanderzusetzen. Aus der Breite des Spektrums der Einreichungen ergaben sich zugleich Probleme bei der Begutachtung. Letztlich konnten von den zahlreichen Einreichungen nur drei die Gutachter so überzeugen, dass sie uneingeschränkt in ihrer Langfassung akzeptiert wurden. Neun weitere Einreichungen waren trotz Kritik überwiegend positiv begutachtet worden, so dass wir diese als Kurzfassung bzw. Diskussionspapier in die Tagung aufgenommen haben.
Hartz IV steht als Chiffre für eine Sozialrechtsreform, mit der 2005 die Grundsicherung für Arbeitsuchende auf ein neues Fundament gestellt wurde. Die Reform war von Anbeginn umstritten. Streitpunkte waren sowohl die organisationsrechtliche Zuordnung der Trägerschaft (ARGE, Optionskommunen) als auch Voraussetzungen, Art und Höhe der Leistungen nach dem damals neuen SGB II. Inzwischen hat das Bundesverfassungsgericht die in § 44b SGB II geregelten Arbeitsgemeinschaften als verfassungswidrige Mischverwaltung eingestuft. Die Karlsruher Richter setzten dem Gesetzgeber für die Herstellung grundgesetzkonformer Zustände eine Frist längstens bis Ende 2010. Mit Gesetz zur Änderung des Grundgesetzes (Art. 91e), in Kraft getreten am 27.07.2010, hat der Gesetzgeber den Auftrag des Bundesverfassungsgerichtes umgesetzt. Die Verfassung wurde um einen neuen Artikel 91e ergänzt. Er schafft eine verfassungsrechtliche Grundlage für die Fortsetzung der Aufgabenwahrnehmung der SGB II-Leistungsträger in gemeinsamen Einrichtungen. Dadurch wird eine Ausnahme vom Verbot der Mischverwaltung für das Gebiet der Grundsicherung für Arbeitsuchende eingeführt. Nach Art. 91e Abs. 2 GG kann eine begrenzte Anzahl von kommunalen Trägern als alleinige Träger der Grundsicherung für Arbeitssuchende zugelassen werden. Die Zulassung erfolgt auf Antrag des kommunalen Trägers und bedarf der Zustimmung der obersten Landesbehörde. Doch beschränken sich die Schwierigkeiten nicht allein auf die Verwaltungsorganisation und das Organisationsrecht. Vielmehr haben sich bei der praktischen Handhabung des SGB II auch im Leistungsrecht viele Schwachstellen gezeigt. Folge davon ist eine Klagenflut bei den Sozialgerichten, in deren Urteilen manche eine Fundgrube für gesetzgeberischen Nachbesserungsbedarf sehen. Hinzu kommen Reformvorschläge aus der Politik, die bis hin zu einer Arbeitspflicht reichen. Weitere Reformimpulse gehen vom Bundesverfassungsgericht aus, das unlängst in dem zentralen Bereich der Regelleistungen verfassungswidrige Vorschriften ausgemacht und damit weit über den konkreten Einzelfall hinaus zu einer Neubestimmung sozialstaatlicher Leistungen anregt. Die 16. Fachtagung des Kommunalwissenschaftlichen Institutes (KWI) der Universität Potsdam greift die ebenso aktuellen wie brisanten Entwicklungen bei der Trägerschaft und den Leistungen der Grundsicherung für Arbeitsuchende auf.
Hartz IV im Umbruch
(2010)
Harness-Prozesse
(2010)
Harness-Prozesse finden in der Forschung immer mehr Anwendung. Vor allem gewinnen Harness-Prozesse in stetiger Zeit an Bedeutung. Grundlegende Literatur zu diesem Thema ist allerdings wenig vorhanden. In der vorliegenden Arbeit wird die vorhandene Grundlagenliteratur zu Harness-Prozessen in diskreter und stetiger Zeit aufgearbeitet und Beweise ausgeführt, die bisher nur skizziert waren. Ziel dessen ist die Existenz einer Zerlegung von Harness-Prozessen über Z beziehungsweise R+ nachzuweisen.
Halakha and Microhistory
(2010)
Shifra was a Jewish businesswoman in Moravia in the fifteenth-century. In 1452 due to financial fraud she was arrested in Brno. Her life was saved by some members of the local Jewish community, who renounced their financial claims against their Christian neighbours in the exchange of Shifra’s life. However, one member of the community consented to the agreement only on condition that the other members would pay his losses. The case was extensively discussed in the correspondence of contemporary rabbis, among them Israel Bruna and Israel Isserlein. Their letters about the Shifra-affair reveal some important characteristics of the rabbinic authority in the late medieval Ashkenaz.
Grußwort
(2010)
I. Einführung II. Die Anspruchsvoraussetzungen für den Erhalt von Leistungen II.1. Erwerbsfähigkeit nach § 8 SGB II II.2. Hilfebedürftigkeit nach § 9 SGB II III. Die Leistungen des SGB II im Überblick III.1. Leistungen zur Eingliederung in Arbeit III.2. Leistungen zur Sicherung des Lebensunterhalts IV. Ausgewählte Einzelprobleme IV.1. Leistungen zur Eingliederung in Arbeit IV.2. Leistungen zur Sicherung des Lebensunterhalts
Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse. - 3., veränd. Aufl.
(2010)
Zur adäquaten Analyse sozialwissenschaftlicher Phänomene ist die Anwendung multivariater Modelle hilfreich, die die Analyse von Zusammenhängen und Abhängigkeiten zwischen vielen Merkmalen ermöglichen. Als grundlegende Modelle werden im folgenden Band behandelt: Die Elaboration von Zusammenhängen lässt sich durch Teilgruppenvergleich (Tabellenanalyse) auf nominalem Messniveau und durch partielle Korrelation auf metrischem Messniveau durchführen. In der multiplen Regression wird die Variation eines interessierenden Phänomens auf die Variation einer Reihe von Erklärungsfaktoren zurückgeführt. Die wichtigsten Interpretationshilfen dabei sind der Anteil der erklärten Varianz und die Effekte. In der Pfadanalyse werden alle Mechanismen herausgearbeitet, durch deren Zusammenwirken die Höhe jedes statistischen Zusammenhangs bestimmt wird: Direkte und indirekte Kausaleffekte, scheinkausale Komponenten und Assoziationseffekte. In der Varianzanalyse wird die Variation eines interessierenden Phänomens auf Haupteffekte und Interaktionseffekte einer Reihe von Erklärungsfaktoren zurückgeführt.
Indonesia is one of the countries most prone to natural hazards. Complex interaction of several tectonic plates with high relative velocities leads to approximately two earthquakes with magnitude Mw>7 every year, being more than 15% of the events worldwide. Earthquakes with magnitude above 9 happen far more infrequently, but with catastrophic effects. The most severe consequences thereby arise from tsunamis triggered by these subduction-related earthquakes, as the Sumatra-Andaman event in 2004 showed. In order to enable efficient tsunami early warning, which includes the estimation of wave heights and arrival times, it is necessary to combine different types of real-time sensor data with numerical models of earthquake sources and tsunami propagation. This thesis was created as a result of the GITEWS project (German Indonesian Tsunami Early Warning System). It is based on five research papers and manuscripts. Main project-related task was the development of a database containing realistic earthquake scenarios for the Sunda Arc. This database provides initial conditions for tsunami propagation modeling used by the simulation system at the early warning center. An accurate discretization of the subduction geometry, consisting of 25x150 subfaults was constructed based on seismic data. Green’s functions, representing the deformational response to unit dip- and strike slip at the subfaults, were computed using a layered half-space approach. Different scaling relations for earthquake dimensions and slip distribution were implemented. Another project-related task was the further development of the ‘GPS-shield’ concept. It consists of a constellation of near field GPS-receivers, which are shown to be very valuable for tsunami early warning. The major part of this thesis is related to the geophysical interpretation of GPS data. Coseismic surface displacements caused by the 2004 Sumatra earthquake are inverted for slip at the fault. The effect of different Earth layer models is tested, favoring continental structure. The possibility of splay faulting is considered and shown to be a secondary order effect in respect to tsunamigenity for this event. Tsunami models based on source inversions are compared to satellite radar altimetry observations. Postseismic GPS time series are used to test a wide parameter range of uni- and biviscous rheological models of the asthenosphere. Steady-state Maxwell rheology is shown to be incompatible with near-field GPS data, unless large afterslip, amounting to more than 10% of the coseismic moment is assumed. In contrast, transient Burgers rheology is in agreement with data without the need for large aseismic afterslip. Comparison to postseismic geoid observation by the GRACE satellites reveals that even with afterslip, the model implementing Maxwell rheology results in amplitudes being too small, and thus supports a biviscous asthenosphere. A simple approach based on the assumption of quasi-static deformation propagation is introduced and proposed for inversion of coseismic near-field GPS time series. Application of this approach to observations from the 2004 Sumatra event fails to quantitatively reconstruct the rupture propagation, since a priori conditions are not fulfilled in this case. However, synthetic tests reveal the feasibility of such an approach for fast estimation of rupturing properties.
The Antarctic plays an important role in the global climate system. On the one hand, the Antarctic Ice Sheet is the largest freshwater reservoir on Earth. On the other hand, a major proportion of the global bottom-water formation takes place in Antarctic shelf regions, forcing the global thermohaline circulation. The main goal of this dissertation is to provide new insights into the dynamics and stability of the EAIS during the Quaternary. Additionally, variations in the activity of bottom-water formation and their causes are investigated. The dissertation is a German contribution to the International Polar Year 2007/ 2008 and was funded by the ‘Deutsche Forschungsgesellschaft’ (DFG) within the scope of priority program 1158 ‘Antarctic research with comparative studies in Arctic ice regions’. During RV Polarstern expedition ANT-XXIII/9, glaciomarine sediments were recovered from the Prydz Bay-Kerguelen region. Prydz Bay is a key region for the study of East EAIS dynamics, as 16% of the EAIS are drained through the Lambert Glacier into the bay. Thereby, the glacier transports sediment into Prydz Bay which is then further distributed by calving icebergs or by current transport. The scientific approach of this dissertation is the reconstruction of past glaciomarine environments to infer on the response of the Lambert Glacier-Amery Ice Shelf system to climate shifts during the Quaternary. To characterize the depositional setting, sedimentological methods are used and statistical analyses are applied. Mineralogical and (bio)geochemical methods provide a means to reconstruct sediment provenances and to provide evidence on changes in the primary production in the surface water column. Age-depth models were constructed based on palaeomagnetic and palaeointensity measurements, diatom stratigraphy and radiocarbon dating. Sea-bed surface sediments in the investigation area show distinct variations in terms of their clay minerals and heavy-mineral assemblages. Considerable differences in the mineralogical composition of surface sediments are determined on the continental shelf. Clay minerals as well as heavy minerals provide useful parameters to differentiate between sediments which originated from erosion of crystalline rocks and sediments originating from Permo-Triassic deposits. Consequently, mineralogical parameters can be used to reconstruct the provenance of current-transported and ice-rafted material. The investigated sediment cores cover the time intervals of the last 1.4 Ma (continental slope) and the last 12.8 cal. ka BP (MacRobertson shelf). The sediment deposits were mainly influenced by glacial and oceanographic processes and further by biological activity (continental shelf), meltwater input and possibly gravitational transport. Sediments from the continental slope document two major deglacial events: the first deglaciation is associated with the mid-Pleistocene warming recognized around the Antarctic. In Prydz Bay, the Lambert Glacier-Amery Ice Shelf retreated far to the south and high biogenic productivity commenced or biogenic remains were better preserved due to increased sedimentation rates. Thereafter, stable glacial conditions continued until 400 - 500 ka BP. Calving of icebergs was restricted to the western part of the Lambert Glacier. The deeper bathymetry in this area allows for floating ice shelf even during times of decreased sea-level. Between 400 - 500 ka BP and the last interglacial (marine isotope stage 5) the glacier was more dynamic. During or shortly after the last interglacial the LAIS retreated again due to sea-level rise of 6 - 9 m. Both deglacial events correlate with a reduction in the thickness of ice masses in the Prince Charles Mountains. It indicates that a disintegration of the Amery Ice Shelf possibly led to increased drainage of ice masses from the Prydz Bay hinterland. A new end-member modelling algorithm was successfully applied on sediments from the MacRobertson shelf used to unmix the sand grain size fractions sorted by current activity and ice transport, respectively. Ice retreat on MacRobertson Shelf commenced 12.8 cal. ka BP and ended around 5.5 cal. ka BP. During the Holocene, strong fluctuations of the bottomwater activity were observed, probably related to variations of sea-ice formation in the Cape Darnley polynya. Increased activity of bottom-water flow was reconstructed at transitions from warm to cool conditions, whereas bottom-water activity receded during the mid- Holocene climate optimum. It can be concluded that the Lambert Glacier-Amery Ice Shelf system was relatively stable in terms of climate variations during the Quaternary. In contrast, bottom-water formation due to polynya activity was very sensitive to changes in atmospheric forcing and should gain more attention in future research.
Die Magisterarbeit beschäftigt sich mit der politischen Förderung der geringfügigen Beschäftigung sowie der Inanspruchnahme haushaltsnaher Dienstleistungen und deren Bedeutung für eine gleichstellungsorientierte Familien- und Arbeitsmarktpolitik. Als Ausgangspunkt wird die Frage gestellt, ob geringfügige Beschäftigung und haushaltsnahe Dienstleistungen einen Arbeitsmarkt für Frauen im Niedriglohnsektor schaffen oder ob sie eine Perspektive zur besseren Vereinbarkeit von Erwerbsarbeit und Carearbeit bieten. Dazu wird die Perspektive der Beschäftigten in sogenannten Minijobs als auch der NutzerInnen haushaltsnaher Dienstleistungen analysiert. Als theoretischer Rahmen liegt der Arbeit die These der geschlechterkritischen, vergleichenden Wohlfahrtsstaatforschung zugrunde, dass Policies familialisierende und defamilialisierende Wirkungen haben können. Auf Grundlage dieses Rahmens werden zwei Gesetze und deren gleichstellungspolitische Wirkung analysiert (Familienleistungsgesetz und 2. Gesetz für moderne Dienstleistungen am Arbeitsmarkt – Hartz II). Die Arbeit gelangt zu dem Ergebnis, dass trotz der engen Verflechtung der beiden Politikfelder Arbeitsmarkt- und Familienpolitik ein Mismatch zwischen den analysierten Gesetzen besteht. Insbesondere hinsichtlich der geringfügigen Beschäftigung gelangt die Arbeit aus einer gleichstellungspolitischen Perspektive zu dem Urteil, dass sie sich am modernisierten Ernährermodell orientiert und Frauen auf die Rolle als Zuverdienerin festlegt. Auf diese Weise werden Anreize für eine geschlechterspezifische Arbeitsteilung gelegt.
This thesis presents methods, techniques and tools for developing three-dimensional representations of tactical intelligence assessments. Techniques from GIScience are combined with crime mapping methods. The range of methods applied in this study provides spatio-temporal GIS analysis as well as 3D geovisualisation and GIS programming. The work presents methods to enhance digital three-dimensional city models with application specific thematic information. This information facilitates further geovisual analysis, for instance, estimations of urban risks exposure. Specific methods and workflows are developed to facilitate the integration of spatio-temporal crime scene analysis results into 3D tactical intelligence assessments. Analysis comprises hotspot identification with kernel-density-estimation techniques (KDE), LISA-based verification of KDE hotspots as well as geospatial hotspot area characterisation and repeat victimisation analysis. To visualise the findings of such extensive geospatial analysis, three-dimensional geovirtual environments are created. Workflows are developed to integrate analysis results into these environments and to combine them with additional geospatial data. The resulting 3D visualisations allow for an efficient communication of complex findings of geospatial crime scene analysis.
Geographical turn
(2010)
Das Buch widmet sich der Betrachtung der verschiedenen Gegnerschaftsformen in Computerspielen als Ausdruck seiner Interaktivität, wobei eine dreiteilige Typologie generiert wird, mit der die Gegnerschaftsarten eines jeden Spieles abgedeckt werden können. Hierbei wird unterschieden zwischen dem „Wettbewerb“ (dieser zeichnet sich durch Chancengleichheit der Teilnehmer bei einer auf dasselbe Ziel ausgerichteten Bewegung aus), der „Feindschaft“ (bei der die Spieler unterschiedliche, häufig konträre Ziele verfolgen und eine gegenseitige Tötungsbereitschaft aufweisen) sowie der „Umgebung“ (bei der die Spieler nicht gegen einen realen Feind, sondern gegen die Hindernisse der Spielwelt antreten). Aus medienwissenschaftlicher Sicht spielt die Betrachtung der konzeptuellen Einbindung von Gewalt in den Spielekontext eine zentrale Rolle. Auf diese Weise wird versucht, die Interaktivität des Computerspiels anhand von agonalen Spielelementen zu systematisieren. Gewalt wird im Falle des Wettbewerbs domestiziert, durch die Feindschaft zelebriert und bei der Umgebung kanalisiert. Es soll in Gegnerschaft im Computerspiel jedoch weniger eine pädagogische, als vielmehr eine analytische Herangehensweise an das Computerspiel vollzogen werden. Darüber hinaus werden im Verlauf der Argumentation Kriterien herausgearbeitet, anhand derer sich die unterschiedlichen Formen von Gegnerschaft identifizieren lassen. Es wird eine simple Einteilungsmatrix bereitgestellt, die die Gegnerschaftsformen in Bezug zueinander setzt und deren Verhältnis verdeutlicht. Den Abschluss bildet ein Ausblick zur gängigen Spielhaltung von Computerspielern, der andeutet, wie diese theoretischen Konzepte in der Praxis mit Inhalten umgesetzt werden.
Die Qualität von Nutzpflanzen ist von zahlreichen Einflussfaktoren wie beispielsweise Lagerbedingungen und Sorteneigenschaften abhängig. Um Qualitätsmängel zu minimieren und Absatzchancen von Nutzpflanzen zu steigern sind umfangreiche Analysen hinsichtlich ihrer stofflichen Zusammensetzung notwendig. Chromatographische Techniken gekoppelt an ein Massenspektrometer und die Kernspinresonanzspektroskopie wurden dafür bislang verwendet. In der vorliegenden Arbeit wurde ein Gaschromatograph an ein Flugzeitmassenspektrometer (GC-TOF-MS) gekoppelt, um physiologische Prozesse bzw. Eigenschaften (die Schwarzfleckigkeit, die Chipsbräunung, das Physiologische Alter und die Keimhemmung) von Nutzpflanzen aufzuklären. Als Pflanzenmodell wurde dafür die Kartoffelknolle verwendet. Dazu wurden neue analytische Lösungsansätze entwickelt, die eine zielgerichtete Auswertung einer Vielzahl von Proben, die Etablierung einer umfangreichen Referenzspektrenbibliothek und die sichere Archivierung aller experimentellen Daten umfassen. Das Verfahren der Probenvorbereitung wurde soweit modifiziert, dass gering konzentrierte Substanzen mittels GC-TOF-MS analysiert werden können. Dadurch wurde das durch die Probenvorbereitung limitierte Substanzspektrum erweitert. Anhand dieser Lösungsansätze wurden physiologisch relevante Stoffwechselprodukte identifiziert, welche indikativ (klassifizierend) bzw. prädiktiv (vorhersagend) für die physiologischen Prozesse sind. Für die Schwarzfleckigkeitsneigung und die Chipseignung wurde jeweils ein biochemisches Modell zur Vorhersage dieser Prozesse aufgestellt und auf eine Züchtungspopulation übertragen. Ferner wurden für die Schwarzfleckigkeit Stoffwechselprodukte des Respirationsstoffwechsels identifiziert sowie Aminosäuren, Glycerollipide und Phenylpropanoide für das Physiologische Alter als relevant erachtet. Das physiologische Altern konnte durch die Anwendung höherer Temperaturen beschleunigt werden. Durch Anwendung von Keimhemmern (Kümmelöl, Chlorpropham) wurde eine Verzögerung des physiologischen Alterns beobachtet. Die Applikation von Kümmelöl erwies sich dabei als besonders vorteilhaft. Kümmelöl behandelte Knollen wiesen im Vergleich zu unbehandelten Knollen nur Veränderungen im Aminosäure-, Zucker- und Sekundärstoffwechsel auf. Chlorpropham behandelte Knollen wiesen einen ähnlichen Stoffwechsel wie die unbehandelten Knollen auf. Für die bislang noch nicht identifizierten Stoffwechselprodukte wurden im Rahmen dieser Arbeit das Verfahren der „gezielten An-/Abreicherung“, der „gepaarten NMR/GC-TOF-MS Analyse“ und das „Entscheidungsbaumverfahren“ entwickelt. Diese ermöglichen eine Klassifizierung von GC-MS Signalen im Hinblick auf ihre chemische Funktionalität. Das Verfahren der gekoppelten NMR/GC-TOF-MS Analyse erwies sich dabei als besonders erfolgversprechend, da es eine Aufklärung bislang unbekannter gaschromatographischer Signale ermöglicht. In der vorliegenden Arbeit wurden neue Stoffwechselprodukte in der Kartoffelknolle identifiziert, wodurch ein wertvoller Beitrag zur Analytik der Metabolomik geleistet wurde.
Video games structure play as performance in both the virtual and the physical space. On the one hand, the player encounters game worlds as virtual stages to act upon. On the other hand, the game world stages the player and re-frames the play space. This essay sets out to suggest some of the elements that are at work in this dualism of games as performative media. The two key elements here are the mediation of the game environment and the transformation of the player through virtual puppetry. Both cases will be argued with a focus on spatiality in performance.
Inhalt: 1. Einleitung: Militärische Eliten und Freimaurerei 2. Vereinbarkeit der Werte 3. Der Siebenjährige Krieg als Katalysator freimaurerischer Aktivitäten in Europa 4. Die schwedische Armeeloge 1761-1788 5. Aktivitäten der Armeeloge und ihrer schwedisch-pommerschen Tochterlogen 6. Zur Kompatibilität militärischer Eliten und der Freimaurerei
Forschungsbasierte Lehre
(2010)
Mit der Integration von Forschung in Lehre gelingen nicht nur aktivierende, teilnehmerorientierte Lehrmethoden, sie bietet vielmehr für Studierende die Möglichkeit an Forschung teilzuhaben. Dabei geht forschungsbasiertes Lernen über die Förderung von Selbstständigkeit und projektorientiertem Studium hinaus, denn es wird von den Studierenden eine sie interessierende Problemstellung entwickelt mit dem Ziel neue Erkenntnisse zu gewinnen. Hierin liegt die Besonderheit des Konzepts: es wird bei den Lerninteressen der Studierenden angesetzt. Dieser Beitrag erörtern ein Beispiel, wie Forschungsprojekte in der Lehre genutzt werden können.
The programmable network envisioned in the 1990s within standardization and research for the Intelligent Network is currently coming into reality using IPbased Next Generation Networks (NGN) and applying Service-Oriented Architecture (SOA) principles for service creation, execution, and hosting. SOA is the foundation for both next-generation telecommunications and middleware architectures, which are rapidly converging on top of commodity transport services. Services such as triple/quadruple play, multimedia messaging, and presence are enabled by the emerging service-oriented IPMultimedia Subsystem (IMS), and allow telecommunications service providers to maintain, if not improve, their position in the marketplace. SOA becomes the de facto standard in next-generation middleware systems as the system model of choice to interconnect service consumers and providers within and between enterprises. We leverage previous research activities in overlay networking technologies along with recent advances in network abstraction, service exposure, and service creation to develop a paradigm for a service environment providing converged Internet and Telecommunications services that we call Service Broker. Such a Service Broker provides mechanisms to combine and mediate between different service paradigms from the two domains Internet/WWW and telecommunications. Furthermore, it enables the composition of services across these domains and is capable of defining and applying temporal constraints during creation and execution time. By adding network-awareness into the service fabric, such a Service Broker may also act as a next generation network-to-service element allowing the composition of crossdomain and cross-layer network and service resources. The contribution of this research is threefold: first, we analyze and classify principles and technologies from Information Technologies (IT) and telecommunications to identify and discuss issues allowing cross-domain composition in a converging service layer. Second, we discuss service composition methods allowing the creation of converged services on an abstract level; in particular, we present a formalized method for model-checking of such compositions. Finally, we propose a Service Broker architecture converging Internet and Telecom services. This environment enables cross-domain feature interaction in services through formalized obligation policies acting as constraints during service discovery, creation, and execution time.
Foraging in space and time
(2010)
All animals are adapted to the environmental conditions of the habitat they chose to live in. It was the aim of this PhD-project, to show which behavioral strategies are expressed as mechanisms to cope with the constraints, which contribute to the natural selection pressure acting on individuals. For this purpose, small mammals were exposed to different levels and types of predation risk while actively foraging. Individuals were either exposed to different predator types (airborne or ground) or combinations of both, or to indirect predators (nest predators). Risk was assumed to be distributed homogeneously, so changing the habitat or temporal adaptations where not regarded as potential options. Results show that wild-caught voles have strategic answers to this homogeneously distributed risk, which is perceived by tactile, olfactory or acoustic cues. Thus, they do not have to know an absolut quality (e.g., in terms of food provisioning and risk levels of all possible habitats), but they can adapt their behavior to the actual circumstances. Deriving risk uniform levels from cues and adjusting activity levels to the perceived risk is an option to deal with predators of the same size or with unforeseeable attack rates. Experiments showed that as long as there are no safe places or times, it is best to reduce activity and behave as inconspicuous as possible as long as the costs of missed opportunities do not exceed the benefits of a higher survival probability. Test showed that these costs apparently grow faster for males than for females, especially in times of inactivity. This is supported by strong predatory pressure on the most active groups of rodents (young males, sexually active or dispersers) leading to extremely female-biased operative sex ratios in natural populations. Other groups of animals, those with parental duties such as nest guarding, for example, have to deal with the actual risk in their habitat as well. Strategies to indirect predation pressure were tested by using bank vole mothers, confronted with a nest predator that posed no actual threat to themselves but to their young (Sorex araneus). They reduced travelling and concentrated their effort in the presence of shrews, independent of the different nutritional provisioning of food by varying resource levels due to the different seasons. Additionally, they exhibited nest-guarding strategies by not foraging in the vicinity of the nest site in order to reduce conspicuous scent marks. The repetition of the experiment in summer and autumn showed that changing environmental constraints can have a severe impact on results of outdoor studies. In our case, changing resource levels changed the type of interaction between the two species. The experiments show that it is important to analyze decision making and optimality models on an individual level, and, when that is not possible (maybe because of the constraints of field work), groups of animals should be classified by using the least common denominator that can be identified (such as sex, age, origin or kinship). This will control for the effects of the sex or stage of life history or the individual´s reproductive and nutritional status on decision making and will narrow the wide behavioral variability associated with the complex term of optimality.
Fiscal federalism has been an important topic among public finance theorists in the last four decades. There is a series of arguments that decentralization of governments enhances growth by improving allocation efficiency. However, the empirical studies have shown mixed results for industrialized and developing countries and some of them have demonstrated that there might be a threshold level of economic development below which decentralization is not effective. Developing and transition countries have developed a variety of forms of fiscal decentralization as a possible strategy to achieve effective and efficient governmental structures. A generalized principle of decentralization due to the country specific circumstances does not exist. Therefore, decentralization has taken place in different forms in various countries at different times, and even exactly the same extent of decentralization may have had different impacts under different conditions. The purpose of this study is to investigate the current state of the fiscal decentralization in Mongolia and to develop policy recommendations for the efficient and effective intergovernmental fiscal relations system for Mongolia. Within this perspective the analysis concentrates on the scope and structure of the public sector, the expenditure and revenue assignment as well as on the design of the intergovernmental transfer and sub-national borrowing. The study is based on data for twenty-one provinces and the capital city of Mongolia for the period from 2000 to 2009. As a former socialist country Mongolia has had a highly centralized governmental sector. The result of the analysis below revealed that the Mongolia has introduced a number of decentralization measures, which followed a top down approach and were slowly implemented without any integrated decentralization strategy in the last decade. As a result Mongolia became de-concentrated state with fiscal centralization. The revenue assignment is lacking a very important element, for instance significant revenue autonomy given to sub-national governments, which is vital for the efficient service delivery at the local level. According to the current assignments of the expenditure and revenue responsibilities most of the provinces are unable to provide a certain national standard of public goods supply. Hence, intergovernmental transfers from the central jurisdiction to the sub-national jurisdictions play an important role for the equalization of the vertical and horizontal imbalances in Mongolia. The critical problem associated with intergovernmental transfers is that there is not a stable, predictable and transparent system of transfer allocation. The amount of transfers to sub-national governments is determined largely by political decisions on ad hoc basis and disregards local differences in needs and fiscal capacity. Thus a fiscal equalization system based on the fiscal needs of the provinces should be implemented. The equalization transfers will at least partly offset the regional disparities in revenues and enable the sub-national governments to provide a national minimum standard of local public goods.
This thesis is concerned with the development of numerical methods using finite difference techniques for the discretization of initial value problems (IVPs) and initial boundary value problems (IBVPs) of certain hyperbolic systems which are first order in time and second order in space. This type of system appears in some formulations of Einstein equations, such as ADM, BSSN, NOR, and the generalized harmonic formulation. For IVP, the stability method proposed in [14] is extended from second and fourth order centered schemes, to 2n-order accuracy, including also the case when some first order derivatives are approximated with off-centered finite difference operators (FDO) and dissipation is added to the right-hand sides of the equations. For the model problem of the wave equation, special attention is paid to the analysis of Courant limits and numerical speeds. Although off-centered FDOs have larger truncation errors than centered FDOs, it is shown that in certain situations, off-centering by just one point can be beneficial for the overall accuracy of the numerical scheme. The wave equation is also analyzed in respect to its initial boundary value problem. All three types of boundaries - outflow, inflow and completely inflow that can appear in this case, are investigated. Using the ghost-point method, 2n-accurate (n = 1, 4) numerical prescriptions are prescribed for each type of boundary. The inflow boundary is also approached using the SAT-SBP method. In the end of the thesis, a 1-D variant of BSSN formulation is derived and some of its IBVPs are considered. The boundary procedures, based on the ghost-point method, are intended to preserve the interior 2n-accuracy. Numerical tests show that this is the case if sufficient dissipation is added to the rhs of the equations.
Der vorgestellte Beitrag erforscht die wirtschaftlichen Tätigkeiten des großen deutschen Unternehmens Siemens und Halske in Georgien in der zweiten Hälfte des 19. Jahrhunderts. Diesbezüglich sind in der Arbeit die folgenden Schwerpunkte gesetzt worden: - Erforschung des Wirkens der Firma Siemens und Halske und seiner Folgen; - Darstellung der positiven und negativen Seiten des Einflusses auf die georgische Wirtschaft. Die wissenschaftliche und praktische Relevanz kann wie folgt formuliert werden: - Es wird begründet, dass die Firma Siemens und Halske durch ihre Aktivitäten in Georgien (Bau von Telegrafenleitungen, Einführung einer Reihe von Neuheiten in der Kupfer- und Erdölproduktion) eine entscheidende Rolle in der wirtschaftlichen Entwicklung des Landes spielte; - Die Aktivitäten der Firma, deren positive und negative Seiten sowie ihr Einfluss auf die georgische Wirtschaft werden im Einzelnen charakterisiert.
Inhalt 1. Vorüberlegungen Der isländische Freistaat und die Gewalt Sozialer Status und kriegerisches Selbstverständnis Europäischer Kontext und Waffentechnologie 2. Fragestellung der Arbeit Wie wurde im mittelalterlichen Island gekämpft? Wurde der Umgang mit Waffen im mittelalterlichen Island trainiert? 3. Methode 4. Isländische Perspektive Historisch-literaturwissenschaftlicher Zugang Archäologischer Zugang Osteoarchäologischer Zugang 5. Außerisländische Perspektive Ethnologischer Zugang Experimentalarchäologischer / praktisch-fechterischer Zugang 6. Antworten und Ausblick Bedeutung für die Disziplinen Hoplologie?
Gegenstand dieser Arbeit ist die Konzeption, Entwicklung und exemplarische Implementierung eines generischen Verfahrens zur Erfassung, Verarbeitung, Auswertung und kartographischen Visualisierung urbaner Strukturen im altweltlichen Trockengürtel mittels hochauflösender operationeller Fernerkundungsdaten. Das Verfahren wird am Beispiel der jemenitischen Hauptstadt Sanaa einer Vertreterin des Typus der Orientalischen Stadt angewandt und evaluiert. Das zu entwickelnde Verfahren soll auf Standardverfahren und Systemen der raumbezogenen Informationsverarbeitung basieren und in seinen wesentlichen Prozessschritten automatisiert werden können. Daten von hochauflösenden operationellen Fernerkundungssystemen (wie z.B. QuickBird, Ikonos u. a.) erlauben die Erkennung und Kartierung urbaner Objekte, wie Gebäude, Straßen und sogar Autos. Die mit ihnen erstellten Karten und den daraus gewonnenen Informationen können zur Erfassung von Urbanisierungsprozessen (Stadt- und Bevölkerungswachstum) herangezogen werden. Sie werden auch zur Generierung von 3D-Stadtmodellen genutzt. Diese dienen z.B. der Visualisierung für touristische Anwendungen, für die Stadtplanung, für Lärmanalysen oder für die Standortplanung von Mobilfunkantennen. Bei dem in dieser Arbeit erzeugten 3D-Visualisierung wurden jedoch keine Gebäudedetails erfasst. Entscheidend war vielmehr die Wiedergabe der Siedlungsstruktur, die im Vorhandensein und in der Anordnung der Gebäude liegt. In dieser Arbeit wurden Daten des Satellitensensors Quickbird von 2005 verwendet. Sie zeigen einen Ausschnitt der Stadt Sanaa in Jemen. Die Fernerkundungsdaten wurden durch andere Daten, u.a. auch Geländedaten, ergänzt und verifiziert. Das ausgearbeitete Verfahren besteht aus der Klassifikation der Satellitenbild-aufnahme, die u.a. pixelbezogen und für jede Klasse einzeln (pixelbezogene Klassifikation auf Klassenebene) durchgeführt wurde. Zusätzlich fand eine visuelle Interpretation der Satellitenbildaufnahme statt, bei der einzelne Flächen und die Straßen digitalisiert und die Objekte mit Symbolen gekennzeichnet wurden. Die aus beiden Verfahren erstellten Stadtkarten wurden zu einer fusioniert. Durch die Kombination der Ergebnisse werden die Vorteile beider Karten in einer vereint und ihre jeweiligen Schwächen beseitigt bzw. minimiert. Die digitale Erfassung der Konturlinien auf der Orthophotomap von Sanaa erlaubte die Erstellung eines Digitalen Geländemodells, das der dreidimensionalen Darstellung des Altstadtbereichs von Sanaa diente. Die 3D-Visualisierung wurde sowohl von den pixelbezogenen Klassifikationsergebnissen auf Klassenebene als auch von der digitalen Erfassung der Objekte erstellt. Die Ergebnisse beider Visualisierungen wurden im Anschluss in einer Stadtkarte vereint. Bei allen Klassifikationsverfahren wurden die asphaltierten Straßen, die Vegetation und einzeln stehende Gebäude sehr gut erfasst. Die Klassifikation der Altstadt gestaltete sich aufgrund der dort für die Klassifikation herrschenden ungünstigen Bedingungen am problematischsten. Die insgesamt besten Ergebnisse mit den höchsten Genauigkeitswerten wurden bei der pixelbezogenen Klassifikation auf Klassenebene erzielt. Dadurch, dass jede Klasse einzeln klassifiziert wurde, konnte die zu einer Klasse gehörende Fläche besser erfasst und nachbearbeitet werden. Die Datenmenge wurde reduziert, die Bearbeitungszeit somit kürzer und die Speicherkapazität geringer. Die Auswertung bzw. visuelle Validierung der pixel-bezogenen Klassifikationsergebnisse auf Klassenebene mit dem Originalsatelliten-bild gestaltete sich einfacher und erfolgte genauer als bei den anderen durch-geführten Klassifikationsverfahren. Außerdem war es durch die alleinige Erfassung der Klasse Gebäude möglich, eine 3D-Visualisierung zu erzeugen. Bei einem Vergleich der erstellten Stadtkarten ergibt sich, dass die durch die visuelle Interpretation erstellte Karte mehr Informationen enthält. Die von den pixelbezogenen Klassifikationsergebnissen auf Klassenebene erstellte Karte ist aber weniger arbeits- und zeitaufwendig zu erzeugen. Zudem arbeitet sie die Struktur einer orientalischen Stadt mit den wesentlichen Merkmalen besser heraus. Durch die auf Basis der 2D-Stadtkarten erstellte 3D-Visualisierung wird ein anderer räumlicher Eindruck vermittelt und bestimmte Elemente einer orientalischen Stadt deutlich gemacht. Dazu zählen die sich in der Altstadt befindenden Sackgassen und die ehemalige Stadtmauer. Auch die für Sanaa typischen Hochhäuser werden in der 3D-Visualisierung erkannt. Insgesamt wurde in der Arbeit ein generisches Verfahren entwickelt, dass mit geringen Modifikationen auch auf andere städtische Räume des Typus orientalische Stadt angewendet werden kann.
On the example of the women’s magazines in Yiddish “Yidishe Froyenvelt” (1902- 1903), “Di Froy” (Vilnius1925-1933), “Froyen-Shtim” (Warsaw 1925) and “Di Froyen-Velt” (New York 1913) this article presents: • how feminist postulates are connected with questions of Jewish identity in a religious and political context • how the model image of a modern Jewish woman is presented • what the main spheres of feminist interests presented in the magazines are (a struggle for equal rights within the Jewish community as well as other social spheres, searching for and presenting outstanding women in the Jewish and world history, descriptions of women’s professional activities, psychological analysis of a woman's nature, establishing ties and a feeling of solidarity between women’s movements of other nations) • how the traditional women's roles are presented (mother, wife, housewife) • what degree of women’s participation in the edition of these periodicals is (a list of articles' authoresses and literature works appearing on columns of the periodicals) • whether and how a feminist discourse affects a language structure of the periodicals Comparing magazines from the beginning of the 20th century and the latter part of 1920s the article answers the question what direction did Jewish feminism evolve to and what content rose or fell in importance.
The seismically active Alborz mountains of northern Iran are an integral part of the Arabia-Eurasia collision. Linked strike-slip and thrust/reverse-fault systems in this mountain belt are characterized by slow loading rates, and large earthquakes are highly disparate in space and time. Similar to other intracontinental deformation zones such a pattern of tectonic activity is still insufficiently understood, because recurrence intervals between seismic events may be on the order of thousands of years, and are thus beyond the resolution of short term measurements based on GPS or instrumentally recorded seismicity. This study bridges the gap of deformation processes on different time scales. In particular, my investigation focuses on deformation on the Quaternary time scale, beyond present-day deformation rates, and it uses present-day and paleotectonic characteristics to model fault behavior. The study includes data based on structural and geomorphic mapping, faultkinematic analysis, DEM-based morphometry, and numerical fault-interaction modeling. In order to better understand the long- to short term behavior of such complex fault systems, I used geomorphic surfaces as strain markers and dated fluvial and alluvial surfaces using terrestrial cosmogenic nuclides (TCN, 10Be, 26Al, 36Cl) and optically stimulated luminescence (OSL). My investigation focuses on the seismically active Mosha-Fasham fault (MFF) and the seismically virtually inactive North Tehran Thrust (NTT), adjacent to the Tehran metropolitan area. Fault-kinematic data reveal an early mechanical linkage of the NTT and MFF during an earlier dextral transpressional stage, when the shortening direction was oriented northwest. This regime was superseded by Pliocene to Recent NE-oriented shortening, which caused thrusting and sinistral strike-slip faulting. In the course of this kinematic changeover, the NTT and MFF were reactivated and incorporated into a nascent transpressional duplex, which has significantly affected landscape evolution in this part of the range. Two of three distinctive features which characterize topography and relief in the study area can be directly related to their location inside the duplex array and are thus linked to interaction between eastern MFF and NTT, and between western MFF and Taleghan fault, respectively. To account for inferred inherited topography from the previous dextral-transpression regime, a new concept of tectonic landscape characterization has been used. Accordingly, I define simple landscapes as those environments, which have developed during the influence of a sustained tectonic regime. In contrast, composite landscapes contain topographic elements inherited from previous tectonic conditions that are inconsistent with the regional present-day stress field and kinematic style. Using numerical fault-interaction modeling with different tectonic boundary conditions, I calculated synoptic snapshots of artificial topography to compare it with the real topographic metrics. However, in the Alborz mountains, E-W faults are favorably oriented to accommodate the entire range of NW- to NE-directed compression. These faults show the highest total displacement which might indicate sustained faulting under changing boundary conditions. In contrast to the fault system within and at the flanks of the Alborz mountains, Quaternary deformation in the adjacent Tehran plain is characterized by oblique motion and thrust and strike-slip fault systems. In this morphotectonic province fault-propagation folding along major faults, limited strike-slip motion, and en-échelon arrays of second-order upper plate thrusts are typical. While the Tehran plain is characterized by young deformation phenomena, the majority of faulting took place in the early stages of the Quaternary and during late Pliocene time. TCN-dating, which was performed for the first time on geomorphic surfaces in the Tehran plain, revealed that the oldest two phases of alluviation (units A and B) must be older than late Pleistocene. While urban development in Tehran increasingly covers and obliterates the active fault traces, the present-day kinematic style, the vestiges of formerly undeformed Quaternary landforms, and paleo earthquake indicators from the last millennia attest to the threat that these faults and their related structures pose for the megacity.
Ziel dieses Beitrages ist es, das didaktische Konzept Fallstudien und seine lerntheoretisch-didaktische Begründung vorzustellen. Es wird die These begründet, dass mediale Räume für die Bearbeitung von Fallstudien lernunterstützend wirken und sich in besonderer Weise für Prozesse der Lernberatung und Lernbegleitung in der Hochschule eignen. Diese These wird entlang dem lerntheoretischen Konzept der Bedeutungsräume von Studierenden in Verbindung mit den Spezifika medialer Räume entfaltet. Für den daraus entstandenen E-Learning-Ansatz Online-Fallstudien kann hier lediglich ein Ausblick gegeben werden.
Die automatische Informationsextraktion (IE) aus unstrukturierten Texten ermöglicht völlig neue Wege, auf relevante Informationen zuzugreifen und deren Inhalte zu analysieren, die weit über bisherige Verfahren zur Stichwort-basierten Dokumentsuche hinausgehen. Die Entwicklung von Programmen zur Extraktion von maschinenlesbaren Daten aus Texten erfordert jedoch nach wie vor die Entwicklung von domänenspezifischen Extraktionsprogrammen. Insbesondere im Bereich der Enterprise Search (der Informationssuche im Unternehmensumfeld), in dem eine große Menge von heterogenen Dokumenttypen existiert, ist es oft notwendig ad-hoc Programm-module zur Extraktion von geschäftsrelevanten Entitäten zu entwickeln, die mit generischen Modulen in monolithischen IE-Systemen kombiniert werden. Dieser Umstand ist insbesondere kritisch, da potentiell für jeden einzelnen Anwendungsfall ein von Grund auf neues IE-System entwickelt werden muss. Die vorliegende Dissertation untersucht die effiziente Entwicklung und Ausführung von IE-Systemen im Kontext der Enterprise Search und effektive Methoden zur Ausnutzung bekannter strukturierter Daten im Unternehmenskontext für die Extraktion und Identifikation von geschäftsrelevanten Entitäten in Doku-menten. Grundlage der Arbeit ist eine neuartige Plattform zur Komposition von IE-Systemen auf Basis der Beschreibung des Datenflusses zwischen generischen und anwendungsspezifischen IE-Modulen. Die Plattform unterstützt insbesondere die Entwicklung und Wiederverwendung von generischen IE-Modulen und zeichnet sich durch eine höhere Flexibilität und Ausdrucksmächtigkeit im Vergleich zu vorherigen Methoden aus. Ein in der Dissertation entwickeltes Verfahren zur Dokumentverarbeitung interpretiert den Daten-austausch zwischen IE-Modulen als Datenströme und ermöglicht damit eine weitgehende Parallelisierung von einzelnen Modulen. Die autonome Ausführung der Module führt zu einer wesentlichen Beschleu-nigung der Verarbeitung von Einzeldokumenten und verbesserten Antwortzeiten, z. B. für Extraktions-dienste. Bisherige Ansätze untersuchen lediglich die Steigerung des durchschnittlichen Dokumenten-durchsatzes durch verteilte Ausführung von Instanzen eines IE-Systems. Die Informationsextraktion im Kontext der Enterprise Search unterscheidet sich z. B. von der Extraktion aus dem World Wide Web dadurch, dass in der Regel strukturierte Referenzdaten z. B. in Form von Unternehmensdatenbanken oder Terminologien zur Verfügung stehen, die oft auch die Beziehungen von Entitäten beschreiben. Entitäten im Unternehmensumfeld haben weiterhin bestimmte Charakteristiken: Eine Klasse von relevanten Entitäten folgt bestimmten Bildungsvorschriften, die nicht immer bekannt sind, auf die aber mit Hilfe von bekannten Beispielentitäten geschlossen werden kann, so dass unbekannte Entitäten extrahiert werden können. Die Bezeichner der anderen Klasse von Entitäten haben eher umschreibenden Charakter. Die korrespondierenden Umschreibungen in Texten können variieren, wodurch eine Identifikation derartiger Entitäten oft erschwert wird. Zur effizienteren Entwicklung von IE-Systemen wird in der Dissertation ein Verfahren untersucht, das alleine anhand von Beispielentitäten effektive Reguläre Ausdrücke zur Extraktion von unbekannten Entitäten erlernt und damit den manuellen Aufwand in derartigen Anwendungsfällen minimiert. Verschiedene Generalisierungs- und Spezialisierungsheuristiken erkennen Muster auf verschiedenen Abstraktionsebenen und schaffen dadurch einen Ausgleich zwischen Genauigkeit und Vollständigkeit bei der Extraktion. Bekannte Regellernverfahren im Bereich der Informationsextraktion unterstützen die beschriebenen Problemstellungen nicht, sondern benötigen einen (annotierten) Dokumentenkorpus. Eine Methode zur Identifikation von Entitäten, die durch Graph-strukturierte Referenzdaten vordefiniert sind, wird als dritter Schwerpunkt untersucht. Es werden Verfahren konzipiert, welche über einen exakten Zeichenkettenvergleich zwischen Text und Referenzdatensatz hinausgehen und Teilübereinstimmungen und Beziehungen zwischen Entitäten zur Identifikation und Disambiguierung heranziehen. Das in der Arbeit vorgestellte Verfahren ist bisherigen Ansätzen hinsichtlich der Genauigkeit und Vollständigkeit bei der Identifikation überlegen.
Roughly every third Wikipedia article contains an infobox - a table that displays important facts about the subject in attribute-value form. The schema of an infobox, i.e., the attributes that can be expressed for a concept, is defined by an infobox template. Often, authors do not specify all template attributes, resulting in incomplete infoboxes. With iPopulator, we introduce a system that automatically populates infoboxes of Wikipedia articles by extracting attribute values from the article's text. In contrast to prior work, iPopulator detects and exploits the structure of attribute values for independently extracting value parts. We have tested iPopulator on the entire set of infobox templates and provide a detailed analysis of its effectiveness. For instance, we achieve an average extraction precision of 91% for 1,727 distinct infobox template attributes.
Exit Afghanistan
(2010)
Den Krieg um Afghanistan hat der Westen verloren - wieder einmal. Die Frage des Abzugs aus dem Land am Hindukusch bestimmt die außen- und sicherheitspolitische Agenda, nicht nur in Washington D.C. und Berlin. Ziel ist, die gescheiterte Intervention möglichst glimpflich enden zu lassen: "Exit Afghanistan" - aber wie?
In this paper we consider a simple syntactic extension of Answer Set Programming (ASP) for dealing with (nested) existential quantifiers and double negation in the rule bodies, in a close way to the recent proposal RASPL-1. The semantics for this extension just resorts to Equilibrium Logic (or, equivalently, to the General Theory of Stable Models), which provides a logic-programming interpretation for any arbitrary theory in the syntax of Predicate Calculus. We present a translation of this syntactic class into standard logic programs with variables (either disjunctive or normal, depending on the input rule heads), as those allowed by current ASP solvers. The translation relies on the introduction of auxiliary predicates and the main result shows that it preserves strong equivalence modulo the original signature.
Models employed in exercise psychology highlight the role of reflective processes for explaining behavior change. However, as discussed in social cognition literature, information-processing models also consider automatic processes (dual-process models). To examine the relevance of automatic processing in exercise psychology, we used a priming task to assess the automatic evaluations of exercise stimuli in physically active sport and exercise majors (n = 32), physically active nonsport majors (n = 31), and inactive students (n = 31). Results showed that physically active students responded faster to positive words after exercise primes, whereas inactive students responded more rapidly to negative words. Priming task reaction times were successfully used to predict reported amounts of exercise in an ordinal regression model. Findings were obtained only with experiential items reflecting negative and positive consequences of exercise. The results illustrate the potential importance of dual-process models in exercise psychology.
We present an approach that provides automatic or semi-automatic support for evolution and change management in heterogeneous legacy landscapes where (1) legacy heterogeneous, possibly distributed platforms are integrated in a service oriented fashion, (2) the coordination of functionality is provided at the service level, through orchestration, (3) compliance and correctness are provided through policies and business rules, (4) evolution and correctness-by-design are supported by the eXtreme Model Driven Development paradigm (XMDD) offered by the jABC (Margaria and Steffen in Annu. Rev. Commun. 57, 2004)—the model-driven service oriented development platform we use here for integration, design, evolution, and governance. The artifacts are here semantically enriched, so that automatic synthesis plugins can field the vision of Enterprise Physics: knowledge driven business process development for the end user.
We demonstrate this vision along a concrete case study that became over the past three years a benchmark for Semantic Web Service discovery and mediation. We enhance the Mediation Scenario of the Semantic Web Service Challenge along the 2 central evolution paradigms that occur in practice: (a) Platform migration: platform substitution of a legacy system by an ERP system and (b) Backend extension: extension of the legacy Customer Relationship Management (CRM) and Order Management System (OMS) backends via an additional ERP layer.
Gegenstand der Studie ist die Evaluation eines kommunalen Sportprojekts. Die Forschungsarbeit entstand aus der wachsenden Erkenntnis heraus, dass es nicht mehr nur um die Entwicklung und Durchführung kommunaler oder sozialer Projekte geht, sondern zunehmend darauf ankommt, die Projektarbeit zu evaluieren, um ihren Einfluss auf die kommunale, soziale und personale Entwicklung zu prüfen und in der Folge die Implementierung zu optimieren. Die unterschiedlichen Schritte in der Definition des theoretischen Rahmens, der Datenanalyse sowie der Erarbeitung der evaluativen Empfehlungen wurden unternommen mit dem Anspruch auf Modellcharakter, um für zukünftige Evaluationsvorhaben entsprechende Standards zu setzen. Die Grundidee des kommunalen Sportprojekts „Straßenfußball für Toleranz“ ist innovativ: Mädchen und Jungen erobern durch gemeinsames Fußballspielen den öffentlichen Raum. Sie spielen ohne Schiedsrichter und nach speziellen Regeln. Das Projekt richtet sich ausdrücklich an sozial benachteiligte Jugendliche und bezieht gleichermaßen Jungen wie Mädchen ein.
Inhalt: Die Zivilgesellschaft Polens ; Worin liegen die Ursachen? ; Empowerment durch Europäisierung ; Finanzielle Unterstützung durch die EU ; New modes of governance – Neue Formen der Kooperation? ; Europäische Gesetzgebung vs. nationalstaatliche Politik ; Erfolge für sexuelle Minderheiten in Polen ; Zusammenfassung ; Literatur
Die Integration Europas bleibt für die Sozialwissenschaften eine Quelle der Inspiration und Herausforderung. Auch 53 Jahre nach Unterzeichnung der Römischen Verträge ist der Kontinent weiter in Bewegung, geht es um die Vision seiner zukünftigen Gestalt ebenso wie um die Regelung vielfältigster Tagesprobleme. Um zu dieser Debatte einen spezifischen Beitrag zu leisten, fand im Juni 2010 an der Universität Potsdam eine deutsch-polnische Konferenz zum Thema „Europa als Inspiration und Herausforderung aus sozialwissenschaftlicher Sicht“ statt. Dabei wurden unterschiedliche Ansätze der europawissenschaftlichen Forschungen in den beteiligten Einrichtungen (z. B. aus der Sicht von Politologen, Soziologen, Historikern oder Kulturwissenschaftlern) präsentiert. Zugleich diente die Konferenz dazu, das wissenschaftliche Forschungsinteresse am „nahen Osten“ wieder zu stärken.
Der "eTEACHiNG-kompass" beinhaltet Informationen zu verschiedenen Funktionen der E-Learning-Plattform "Moodle" und weiteren digitalen Lehr-Lern-Medien. Durch Anregungen sowie konkrete Nutzungs- und Handlungsvorschläge will er deren methodisch reflektierten Einsatz in der Lehre unterstützen. Inhalt Nr. 1 Lernräume einrichten. Kursgestaltung in Moodle Nr. 2 Materialien online bereitstellen. Die Moodle-Funktion "Arbeitsmaterialien" kreativ nutzen Nr. 3 Kommunizieren, organisieren und kooperieren. Foren in Moodle verwenden Nr. 4 Lernende begleiten, Veranstaltungen evaluieren. Die Feedback-Funktion in Moodle Nr. 5 Inhalte online-unterstützt vermitteln. Mit der Moodle-Funktion "Lektion" arbeiten Nr. 6 Unterstützen und überprüfen. Mit der Moodle-Funktion "Test" arbeiten Nr. 7 Online-Glossare. Wissensspeicher im Internet Nr. 8 Kooperatives und kollaboratives Lernen im Netz Arbeiten mit Wikis. Nr. 9 Der Lernbegleiter. Lernen in Worte fassen Nr. 10 Web Based Training. Aufbereiten von Lehrinhalten für die Online-Vermittlung Nr. 11 Podcasting. Einsatzmöglichkeiten in der Hochschullehre Nr. 12 E-Learning und Urheberrecht. Verwendung geschützter Werke in Forschung und Lehre
The aim of this paper is to build and compare estimators of the infection parameter in the different phases of an epidemic (growth and extinction phases). The epidemic is modeled by a Markovian process of order d > 1 (allowing non-Markovian life spans), and can be written as a multitype branching process. We propose three estimators suitable for the different classes of criticality of the process, in particular for the subcritical case corresponding to the extinction phase. We prove their consistency and asymptotic normality for two asymptotics, when the number of ancestors (resp. number of generations) tends to infinity. We illustrate the asymptotic properties with simulated examples, and finally use our estimators to study the infection intensity in the extinction phase of the BSE epidemic in Great-Britain.
Estimation and testing the effect of covariates in accelerated life time models under censoring
(2010)
The accelerated lifetime model is considered. To test the influence of the covariate we transform the model in a regression model. Since censoring is allowed this approach leads to a goodness-of-fit problem for regression functions under censoring. So nonparametric estimation of regression functions under censoring is investigated, a limit theorem for a L2-distance is stated and a test procedure is formulated. Finally a Monte Carlo procedure is proposed.