Refine
Year of publication
- 2014 (1892) (remove)
Document Type
- Article (1252)
- Doctoral Thesis (222)
- Postprint (127)
- Review (65)
- Monograph/Edited Volume (61)
- Preprint (47)
- Conference Proceeding (43)
- Part of Periodical (27)
- Part of a Book (20)
- Other (11)
Language
Keywords
- prevention (25)
- violence (22)
- Gewalt (21)
- Kriminalität (21)
- Nachhaltigkeit (21)
- Prävention (21)
- Rechtsextremismus (21)
- crime (21)
- right-wing extremism (21)
- sustainability (21)
Institute
- Institut für Biochemie und Biologie (251)
- Institut für Physik und Astronomie (239)
- Institut für Geowissenschaften (228)
- Institut für Chemie (189)
- Department Psychologie (92)
- Wirtschaftswissenschaften (62)
- Sozialwissenschaften (59)
- Institut für Ernährungswissenschaft (58)
- Institut für Mathematik (54)
- Department Linguistik (52)
Im Februar 1777 lobte die Ökonomische Gesellschaft zu Bern einen Preis von 100 Louis d’Or aus für den besten Vorschlag eines umfassenden Kriminalgesetzes. Das Preisgeld kam aus dem Kreis der französischen Aufklärer. Eine Hälfte stammte vermutlich von dem Pariser Parlamentsadvokaten Elie de Beaumont, der sich in den Justizaffären um Jean Calas und Pierre Paul Sirven einen Namen gemacht hatte. Die andere Hälfte hatte Voltaire beigesteuert, der das Geld von Friedrich II. von Preussen erhalten hatte. Das Preisausschreiben war ein großer Erfolg. Neben zahlreichen unbekannten Juristen beteiligten sich eine Reihe bekannter Persönlichkeiten, von denen hier nur die späteren Revolutionäre Marat, Brissot de Warville sowie die deutschen Strafrechtsprofessoren Quistorp und Gmelin genannt seien. Die historische Bedeutung des Berner Preisausschreibens liegt darin, dass es die bis dato vorwiegend programmatische Debatte um die Strafrechtsreform in eine praktische Phase überleitete. Es trat eine Welle praktischer Reformschriften los, in denen die Forderungen von Thomasius, Montesquieu und Beccaria umgesetzt wurden. Entscheidend dafür war, dass es mittels des Preisausschreibens gelang, eine große Zahl juristischer Experten zu aktivieren, die neben dem Reformwillen auch über das Fachwissen verfügten, das für die Entwicklung eines neuen Strafrechts erforderlich war. Von den 46 eingesendeten Preisschriften sind neun im Druck überliefert. Sechsundzwanzig befinden sich in Manuskriptform im Archiv der Ökonomischen Gesellschaft zu Bern. Der vorliegende Band versammelt die Transkriptionen von sieben manuskriptförmig überlieferten Preisschriften. Vier sind in französischer und drei in deutscher Sprache verfasst. Eine Preisschrift stammt von dem Genfer Jakobiner Julien Dentand, eine andere von dem deutschen Publizisten Johann Wolfgang Brenk. Die Autoren der übrigen fünf Manuskripte sind unbekannt. Die transkribierten Preisschriften sind Teil der quellenmäßigen Basis einer Untersuchung des strafrechtlichen Denkens im späten 18. Jahrhundert. Diese erscheint demnächst in den Studien zur Europäischen Rechtsgeschichte (Christoph Luther: Aufgeklärt strafen. Menschengerechtigkeit im 18. Jahrhundert).
Rezensierte Werke: Lintl, P., Fundamentalismus – Messianismus – Nationalismus. Ein Theorievergleich am Beispiel der jüdischen Siedler des Westjordanlandes. - Hamburg: Diplomica 2012. - 245 S. ISBN 978-3-8428-8663-6 Inbari, M., Messianic Religious Zionism Confronts Israeli Territorial Compromises. - Cambridge: Cambridge University Press 2012. - 211 S.
Rezensierte Werke: Kiwitt, M.: Les gloses françaises du glossaire biblique B.N. hébr. 301. Édition critique partielle et étude linguistique (= Romanische Texte des Mittelalters, Bd. 2). - Heidelberg: Universitätsverlag Winter 2013. - 472 S. Edzard, A.B.: Varietätenlinguistische Untersuchungen zum Judenfranzösischen (= Bonner Romanistische Arbeiten, Bd. 103). - Bern–Berlin–Frankfurt am Main.: Peter Lang 2011. - 398 S. ISBN 978-3-631-61571-3
Rezensierte Werke: Lohmann, U.: David Friedländer. Reformpolitik im Zeichen von Aufklärung und Emanzipation. Kontexte des preußischen Judenedikts vom 11. März 1812. - Hannover: Wehrhahn 2013. - 576 S. ISBN 978-3-86525-310-1 David Friedländer: Ausgewählte Werke. Herausgegeben von Uta Lohmann. (= Deutsch-jüdische Autoren des 19. Jahrhunderts. Schriften zu Staat, Nation, Gesellschaft. Werkausgaben, Bd. 4). - Köln–Wien: Böhlau 2013. - 322 S. ISBN 978-3-412-20938-4
Der Musiker, Komponist, Produzent und Labeleigner John Zorn ist eine der einflussreichsten Persönlichkeiten der New Yorker Downtown-Szene. Seit Anfang der 1990er Jahre verleiht er seiner jüdischen Identität mit dem von ihm initiierten Programm einer „Radical Jewish Culture“ einen künstlerisch und diskursiv wirkmächtigen Ausdruck. In diesem Artikel werden einige Gestaltungsmerkmale der produzierten CDs, die darin abgedruckten Zitate und liner notes sowie die Bandnamen und Titel der Stücke näher betrachtet und mit judaistischem Hintergrundwissen kommentiert. Zwei Quellen, die Zorn für die hebräischen Titelbezeichnungen herangezogen hat, konnten verifiziert werden: „Oedipus Judaicus“ von William Drummond und „Sefer Yetzirah“ von Aryeh Kaplan.
Dieser Aufsatz setzt sich mit der Frage auseinander: „Was ist jüdische Theologie?“. Er untersucht die verschiedenen Perspektiven jüdisch-amerikanischer Denker des 20. Jahrhunderts auf die Definition von jüdischer Theologie, die Bestimmung ihres Inhalts, ihrer Ziele und Methodik. Dabei konzentrieren sich die Betrachtungen insbesondere auf Konzeptionen von Kaufmann Kohler und Eugene B. Borowitz, aber auch auf Arthur Green, Arthur A. Cohen sowie Louis Jacobs. Ziel dieses Aufsatzes ist es, die vielfältigen Facetten der Perspektiven auf die Thematik – auch unter Berücksichtigung des historischen Kontextes – zu verdeutlichen und die von den Autoren hervorgehobenen Charakteristika einer jüdischen Theologie zu erörtern. Zudem wird gefragt, ob und in welcher Weise sich ihre inhaltlichen Schwerpunkte und Problemstellungen im Laufe der Jahrzehnte verändert haben.
The Beruriah Incident
(2014)
The story known as the Beruriah Incident, which appears in Rashi’s commentary on bAvodah Zarah 18b (related to ATU types 920A* and 823A*), describes the failure and tragic end of R. Meir and his wife Beruriah, two tannaic role-models. This article examines the authenticity of the story by tracking the method of distribution in traditional Jewish society before the modern era, and comparing the story’s components with rabbinic literature and international folklore.
The development of the current liturgical music used in the Belgrade synagogue is (in the last decades) heavily influenced by foreign traditions (mostly levantine) that are brought to Belgrade by modern communication systems. Therefore it is nearly impossible to speak of a status quo that might be possibly obsolete by tomorrow – at least with respect to the melodies. The great changes within the liturgical music occurred not due to acculturation into the Serbian majority but due to the personal preferences of the religious leaders of the Belgrade Jews. The alterations are a conscious process which is precisely the consequence of the musical taste of the local Rabbi and Cantor and not occurring autonomously. In order to understand the new nusah sepharadiyerushalmi that took the place of the forlorn nusah after the downfall of the Communist regime it is deemed necessary to look towards Israel where the rite developed.
Das Jahreskaddisch ist ein Spezifikum der westaschkenasischen Liturgie. Es wird am Abend und am Morgen des Simchat-Tora-Festes vorgetragen und ist aus den wichtigsten musikalischen Motiven des Kaddisch-Gebetes innerhalb des gesamten jüdischen Jahreszyklus zusammengesetzt. Anhand von Tonaufnahmen wurde das Jahreskaddisch der Frankfurter Tradition transkribiert und seine einzelnen melodischen Bestandteile identifiziert. Die vorgestellte Kaddischmelodie wird im heutigen Gottesdienst in Frankfurt a. M. nicht mehr vorgetragen.
Der Synagogenkantor Salomon (1781–1829), genannt Kaschtan („Kastanie“), wurde so berühmt, dass sein Sohn, Kantor Hirsch Weintraub (1813–1882), seine Biografie in zehn Folgen für die Hebräische Zeitschrift Ha-Maggid („Der Bote“) 45 Jahre nach seinem Tod schreiben konnte. Hirsch veröffentlichte auch einige Musikkompositionen seines Vaters und bewahrte zahlreiche Handschriften. Aus einer von Hirsch geschriebenen Handschrift (Mus. 75 der Birnbaum-Sammlung am Hebrew Union College in Cincinnati) veröffentliche ich jetzt mit kurzem Kommentar eine neue Transkription eines in RISM katalogisierten, aber trotzdem unbekannten Stücks Salomons und werfe einen Blick auf seinen seltenen und virtuosen Stil.
Jakob Dymont (1880–1956) stammte aus Litauen und lebte seit seinem 15. Lebensjahr in Berlin. Von 1908 bis 1938 war er Chorleiter an der orthodoxen Berliner Gemeinde „Adass Jisroel“. 1936 wurde er außerdem Lehrer an dem neugegründeten „Beth- Hachasanim“ (Kantorenseminar) der Jüdischen Privaten Musikschule Hollaender. Zu diesem Zeitpunkt war er als begabter Komponist und einer der ersten Autoren von modernen deutsch-jüdischen liturgischen Kompositionen bekannt. Seine Freitagabendund Sabbatmorgenliturgien wurden 1934 bzw. 1936 in der Synagoge Rykestrasse uraufgeführt und fanden eine sehr positive Resonanz. Dymont konnte 1938 Deutschland verlassen. Er lebte dann in New York, wo er sich der Ausbildung jüdischer Kantoren widmete. Dymonts Schaffen der 1930er Jahre ist im Kontext einer Erneuerungsbewegung in der deutsch-jüdischen Synagogenmusik jener Zeit zu betrachten. Seine Werke präsentieren eine fruchtbare Synthese der osteuropäischen jüdischen Tradition mit modernen westeuropäischen Musikformen.
Von Budapest nach Straßburg
(2014)
Der ungarische Kantor Marcel (Martón) Lorand trat 1964, von der neologen Großen Synagoge Budapest kommend, die Kantorenstelle an der orthodoxen Synagogue de la Paix in Straßburg an. Dieser Beitrag nähert sich seinem Leben und Wirken über seine Schallplatten-Aufnahmen sowie über Erinnerungen von Zeitgenossen. Am Beispiel Lorands soll betrachtet werden, mit welchen Herausforderungen ein Kantor beim Wechsel von einer Gemeinde in eine andere konfrontiert sein kann. In einer der wichtigsten Gemeindefunktionen, als Leiter des Synagogengottesdienstes, muss ein Kantor flexibel sein und sich an ortsgebundene liturgische Bräuche anpassen können.
Die jüdische Reformbewegung veränderte nicht nur den liturgischen Ablauf des Gottesdienstes, sondern wirkte sich auch auf das Synagogengebäude aus, in das nun Orgel, Chor und Predigtkanzel als neue Elemente integriert wurden. Nach dem Seesener Jacobstempel (1810) adaptierte man die neuen Ideen in Berlin und anderen Städten, so dass eine eigene Typologie von Reformsynagogen entstand. Ende des 19. Jahrhunderts repräsentierten Synagogen deutlich den Integrationswillen der jüdischen Gemeinden. Die vielbeachteten Wettbewerbsbeiträge für neue großstädtische Synagogenbauten zeigten die unterschiedlichen Möglichkeiten zur Einbeziehung von Orgel und Chor im Innenraum. Die vorgestellten Beispiele führen so die allgemeine Entwicklung der Synagogenarchitektur und die verschiedenartigen Ausprägungen der „Orgelsynagoge“ im Besonderen exemplarisch vor und zeigen, wie die musikalisch durchkomponierte Liturgie mit der neuen „Komposition“ des Synagogenraumes korrespondierte.
2013 setzte Papst Franziskus ein klares Zeichen für die Mitmenschlichkeit. Ziel dieser Reise war die italienische Insel Lampedusa, die aufgrund der immer wiederkehrenden Flüchtlingskatastrophen, die sich vor der Küste abspielen, traurige Berühmtheit erlangte. Flüchtlingsschutz ist in der Europäischen Union ein viel diskutiertes und dennoch immer wieder marginalisiertes Thema. Mit der Arbeit „Die Grenzschutzagentur FRONTEX – Chance oder Bedrohung für den europäischen Flüchtlingsschutz“ leistet die Autorin Frau Dr. Juliane Seehase ihren Beitrag, die Aufgaben von FRONTEX kritisch zu beleuchten. Die Arbeit ist als Dissertation an der Universität Bielefeld bei Herrn Prof. Dr. Franz C. Mayer entstanden.
In processing and data storage mainly ferromagnetic (FM) materials are being used. Approaching physical limits, new concepts have to be found for faster, smaller switches, for higher data densities and more energy efficiency. Some of the discussed new concepts involve the material classes of correlated oxides and materials with antiferromagnetic coupling. Their applicability depends critically on their switching behavior, i.e., how fast and how energy efficient material properties can be manipulated. This thesis presents investigations of ultrafast non-equilibrium phase transitions on such new materials. In transition metal oxides (TMOs) the coupling of different degrees of freedom and resulting low energy excitation spectrum often result in spectacular changes of macroscopic properties (colossal magneto resistance, superconductivity, metal-to-insulator transitions) often accompanied by nanoscale order of spins, charges, orbital occupation and by lattice distortions, which make these material attractive. Magnetite served as a prototype for functional TMOs showing a metal-to-insulator-transition (MIT) at T = 123 K. By probing the charge and orbital order as well as the structure after an optical excitation we found that the electronic order and the structural distortion, characteristics of the insulating phase in thermal equilibrium, are destroyed within the experimental resolution of 300 fs. The MIT itself occurs on a 1.5 ps timescale. It shows that MITs in functional materials are several thousand times faster than switching processes in semiconductors. Recently ferrimagnetic and antiferromagnetic (AFM) materials have become interesting. It was shown in ferrimagnetic GdFeCo, that the transfer of angular momentum between two opposed FM subsystems with different time constants leads to a switching of the magnetization after laser pulse excitation. In addition it was theoretically predicted that demagnetization dynamics in AFM should occur faster than in FM materials as no net angular momentum has to be transferred out of the spin system. We investigated two different AFM materials in order to learn more about their ultrafast dynamics. In Ho, a metallic AFM below T ≈ 130 K, we found that the AFM Ho can not only be faster but also ten times more energy efficiently destroyed as order in FM comparable metals. In EuTe, an AFM semiconductor below T ≈ 10 K, we compared the loss of magnetization and laser-induced structural distortion in one and the same experiment. Our experiment shows that they are effectively disentangled. An exception is an ultrafast release of lattice dynamics, which we assign to the release of magnetostriction. The results presented here were obtained with time-resolved resonant soft x-ray diffraction at the Femtoslicing source of the Helmholtz-Zentrum Berlin and at the free-electron laser in Stanford (LCLS). In addition the development and setup of a new UHV-diffractometer for these experiments will be reported.
NutzerInnen von gewalthaltigen Medien geben einerseits oftmals zu, dass sie fiktionale, gewalthaltige Medien konsumieren, behaupten jedoch gleichzeitig, dass dies nicht ihr Verhalten außerhalb des Medienkontexts beeinflusst. Sie argumentieren, dass sie leicht zwischen Dingen, die im fiktionalen Kontext und Dingen, die in der Realität gelernt wurden, unterscheiden können. Im Kontrast zu diesen Aussagen zeigen Metanalysen Effektstärken im mittleren Bereich für den Zusammenhang zwischen Gewaltmedienkonsum und aggressivem Verhalten. Diese Ergebnisse können nur erklärt werden, wenn MediennutzerInnen gewalthaltige Lernerfahrungen auch außerhalb des Medienkontexts anwenden. Ein Prozess, der Lernerfahrungen innerhalb des Medienkontexts mit dem Verhalten in der realen Welt verknüpft, ist Desensibilisierung, die oftmals eine Reduktion des negativen Affektes gegenüber Gewalt definiert ist. Zur Untersuchung des Desensibilisierungsprozesses wurden vier Experimente durchgeführt. Die erste in dieser Arbeit untersuchte Hypothese war, dass je häufiger Personen Gewaltmedien konsumieren, desto weniger negativen Affekt zeigen sie gegenüber Bildern mit realer Gewalt. Jedoch wurde angenommen, dass diese Bewertung auf Darstellungen von realer Gewalt beschränkt ist und nicht bei Bildern ohne Gewaltbezug, die einen negativen Affekt auslösen, zu finden ist. Die zweite Hypothese bezog sich auf den Affekt während des Konsums von Mediengewalt. Hier wurde angenommen, dass besonders Personen, die Freude an Gewalt in den Medien empfinden weniger negativen Affekt gegenüber realen Gewaltdarstellungen zeigen. Die letzte Hypothese beschäftigte sich mit kognitiver Desensibilisierung und sagte vorher, dass Gewaltmedienkonsum zu einem Transfer von Reaktionen, die normalerweise gegenüber gewalthaltigen Reizen gezeigt werden, auf ursprünglich neutrale Reize führt. Das erste Experiment (N = 57) untersuchte, ob die habituelle Nutzung von gewalthaltigen Medien den selbstberichteten Affekt (Valenz und Aktivierung) gegenüber Darstellungen von realer Gewalt und nichtgewalthaltigen Darstellungen, die negativen Affekt auslösen, vorhersagt. Die habituelle Nutzung von gewalthaltigen Medien sagte weniger negative Valenz und weniger allgemeine Aktivierung gegenüber gewalthalten und nichtgewalthaltigen Bildern vorher. Das zweite Experiment (N = 103) untersuchte auch die Beziehung zwischen habituellem Gewaltmedienkonsum und den affektiven Reaktionen gegenüber Bildern realer Gewalt und negativen affektauslösenden Bildern. Als weiterer Prädiktor wurde der Affekt beim Betrachten von gewalthaltigen Medien hinzugefügt. Der Affekt gegenüber den Bildern wurde zusätzlich durch psychophysiologische Maße (Valenz: C: Supercilii; Aktivierung: Hautleitreaktion) erhoben. Wie zuvor sagte habitueller Gewaltmedienkonsum weniger selbstberichte Erregung und weniger negative Valenz für die gewalthaltigen und die negativen, gewalthaltfreien Bilder vorher. Die physiologischen Maßen replizierten dieses Ergebnis. Jedoch zeigte sich ein anderes Muster für den Affekt beim Konsum von Gewalt in den Medien. Personen, die Gewalt in den Medien stärker erfreut, zeigen eine Reduktion der Responsivität gegenüber Gewalt auf allen vier Maßen. Weiterhin war bei drei dieser vier Maße (selbstberichte Valenz, Aktivität des C. Supercilii und Hautleitreaktion) dieser Zusammenhang auf die gewalthaltigen Bilder beschränkt, mit keinem oder nur einem kleinen Effekt auf die negativen, aber nichtgewalthaltigen Bilder. Das dritte Experiment (N = 73) untersuchte den Affekt während die Teilnehmer ein Computerspiel spielten. Das Spiel wurde eigens für dieses Experiment programmiert, sodass einzelne Handlungen im Spiel mit der Aktivität des C. Supercilii, dem Indikator für negativen Affekt, in Bezug gesetzt werden konnten. Die Analyse des C. Supercilii zeigte, dass wiederholtes Durchführen von aggressiven Spielzügen zu einem Rückgang von negativen Affekt führte, der die aggressiven Spielhandlungen begleitete. Der negative Affekt während gewalthaltiger Spielzüge wiederum sagte die affektive Reaktion gegenüber Darstellungen von gewalthaltigen Bildern vorher, nicht jedoch gegenüber den negativen Bildern. Das vierte Experiment (N = 77) untersuchte kognitive Desensibilisierung, die die Entwicklung von Verknüpfungen zwischen neutralen und aggressiven Kognitionen beinhaltete. Die Teilnehmer spielten einen Ego-Shooter entweder auf einem Schiff- oder einem Stadtlevel. Die Beziehung zwischen den neutralen Konstrukten (Schiff/Stadt) und den aggressiven Kognitionen wurde mit einer lexikalischen Entscheidungsaufgabe gemessen. Das Spielen im Schiff-/Stadt-Level führte zu einer kürzen Reaktionszeit für aggressive Wörter, wenn sie einem Schiff- bzw. Stadtprime folgten. Dies zeigte, dass die im Spiel enthaltenen neutralen Konzepte mit aggressiven Knoten verknüpft werden. Die Ergebnisse dieser vier Experimente wurden diskutiert im Rahmen eines lerntheoretischen Ansatzes um Desensibilisierung zu konzeptualisieren.
Aus dem Inhalt: - Die Bildungsartikel und ihre praktische Umsetzung in der Frauenrechtskonvention, der Kinderrechtskonvention und der Behindertenrechtskonvention der Vereinten Nationen - Binnenvertreibung als Angelegenheit des Völkerrechts - Die Durchsetzung von Menschenrechten vor US-Gerichten nach dem Kiobel-Urteil
Der FinKon-Test
(2014)
Bei vielen schwerhörigen Kindern lassen sich Sprachentwicklungsverzögerungen oder Sprachentwicklungsstörungen im Bereich der Morphologie und Syntax beobachten. Noch ist nicht abschließend geklärt, wie diese Schwierigkeiten durch die Probleme im auditiven Bereich genau verursacht werden. Der vorliegende Beitrag beschäftigt sich mit der Wahrnehmbarkeit koronaler Konsonanten, die im Deutschen u. a. als Verbflexive fungieren. Der neue sprachaudiometrische FinKon-Test erfasst die Fähigkeit, diese Konsonanten im Wortauslaut auditiv wahrzunehmen und zu unterscheiden. In einer Pilotstudie mit 22 schwerhörigen und 15 hörenden Kindern erzielten Kinder mit einer Beeinträchtigung des Hörens schlechtere Ergebnisse als hörende Kinder. Die spezifische Schwierigkeit, Phoneme im Auslaut zu unterscheiden, kann den Erwerb der Verbflexion des Deutschen für schwerhörige Kinder deutlich erschweren. Daher ist es wichtig, die Wahrnehmung von Konsonanten im Auslaut im Rahmen der sprachaudiometrischen Überprüfung des kindlichen Hörvermögens mit einem entsprechenden diagnostischen Instrument, wie dem FinKon-Test, zu überprüfen.
Der Weg zum neuen Hören
(2014)
Störungen des Hörvermögens
(2014)
Schwerhörigkeiten treten beim Menschen häufig auf und können angeboren oder erworben sein. Man unterscheidet in Schallleitungsschwerhörigkeiten, bei denen Schallaufnahme und Schallleitung in das Innenohr durch Fremdkörper, Infektionen, Verletzungen, Mittelohrbelüftungsprobleme und Fehlbildungen gestört sind und in Schallempfindungsschwerhörigkeiten, bei denen der Sinnesbereich des Innenohres, die Nervenleitung zum Hirnstamm oder die zentrale Verarbeitung im Gehirn betroffen sind. Ursächlich hierfür kommen neben vererbten Faktoren Infektionen, Verletzungen, Lärm, toxische Substanzen, Geburtsprobleme, Stoffwechselstörungen und Tumoren in Betracht. Bestehen Schwerhörigkeiten unbehandelt lange Zeit, kommt es – je nach Ausprägung – bei Kindern zu Störungen der Gehirn-, Sprachund emotionalen Entwicklung, bei allen Betroffenen auch zu Kommunikationsproblemen und zu Schwierigkeiten bei der Teilhabe am Leben in der sozialen Gemeinschaft. Schallleitungsschwerhörigkeiten können medizinisch behandelt und gebessert werden, während bei Schallempfindungsschwerhörigkeiten eine ursächliche medizinische Behandlung zur Zeit nicht möglich ist. In diesen Fällen ist die Versorgung mit Hörsystemen erforderlich. Hierzu zählt man, wiederum in Abhängigkeit vom Ausmaß der Schwerhörigkeit, IdO- und HdO-Hörgeräte, implantierbare Hörgeräte, cochleäre Implantate und Hirnstammimplantate. Bei Schwerhörigkeiten, die durch beruflichen Lärm verursacht sind, ist eine Herausnahme aus dem Lärmberuf Voraussetzung, um eine weitere Verschlechterung zu verhindern. Eine besondere Stellung kommt der einseitigen Schallempfindungsschwerhörigkeit zu, da sie bei Normalhörigkeit des anderen Ohres, seltener auffällt, den Betroffenen aber Probleme im täglichen Leben bereiten kann. Wichtig sind ihre Erkennung und Berücksichtigung, zum Beispiel in der Schule, am Arbeitsplatz und im Straßenverkehr. Dem bleibend hörbehinderten Menschen stehen nach dem Sozialgesetzbuch Hilfen und Vergünstigungen zu, um die durch die Hörbehinderung verursachten Nachteile zum Teil auszugleichen.
Wood is used for many applications because of its excellent mechanical properties, relative abundance and as it is a renewable resource. However, its wider utilization as an engineering material is limited because it swells and shrinks upon moisture changes and is susceptible to degradation by microorganisms and/or insects. Chemical modifications of wood have been shown to improve dimensional stability, water repellence and/or durability, thus increasing potential service-life of wood materials. However current treatments are limited because it is difficult to introduce and fix such modifications deep inside the tissue and cell wall. Within the scope of this thesis, novel chemical modification methods of wood cell walls were developed to improve both dimensional stability and water repellence of wood material. These methods were partly inspired by the heartwood formation in living trees, a process, that for some species results in an insertion of hydrophobic chemical substances into the cell walls of already dead wood cells, In the first part of this thesis a chemistry to modify wood cell walls was used, which was inspired by the natural process of heartwood formation. Commercially available hydrophobic flavonoid molecules were effectively inserted in the cell walls of spruce, a softwood species with low natural durability, after a tosylation treatment to obtain “artificial heartwood”. Flavonoid inserted cell walls show a reduced moisture absorption, resulting in better dimensional stability, water repellency and increased hardness. This approach was quite different compared to established modifications which mainly address hydroxyl groups of cell wall polymers with hydrophilic substances. In the second part of the work in-situ styrene polymerization inside the tosylated cell walls was studied. It is known that there is a weak adhesion between hydrophobic polymers and hydrophilic cell wall components. The hydrophobic styrene monomers were inserted into the tosylated wood cell walls for further polymerization to form polystyrene in the cell walls, which increased the dimensional stability of the bulk wood material and reduced water uptake of the cell walls considerably when compared to controls. In the third part of the work, grafting of another hydrophobic and also biodegradable polymer, poly(ɛ-caprolactone) in the wood cell walls by ring opening polymerization of ɛ-caprolactone was studied at mild temperatures. Results indicated that polycaprolactone attached into the cell walls, caused permanent swelling of the cell walls up to 5%. Dimensional stability of the bulk wood material increased 40% and water absorption reduced more than 35%. A fully biodegradable and hydrophobized wood material was obtained with this method which reduces disposal problem of the modified wood materials and has improved properties to extend the material’s service-life. Starting from a bio-inspired approach which showed great promise as an alternative to standard cell wall modifications we showed the possibility of inserting hydrophobic molecules in the cell walls and supported this fact with in-situ styrene and ɛ-caprolactone polymerization into the cell walls. It was shown in this thesis that despite the extensive knowledge and long history of using wood as a material there is still room for novel chemical modifications which could have a high impact on improving wood properties.
This work introduces concepts and corresponding tool support to enable a complementary approach in dealing with recovery. Programmers need to recover a development state, or a part thereof, when previously made changes reveal undesired implications. However, when the need arises suddenly and unexpectedly, recovery often involves expensive and tedious work. To avoid tedious work, literature recommends keeping away from unexpected recovery demands by following a structured and disciplined approach, which consists of the application of various best practices including working only on one thing at a time, performing small steps, as well as making proper use of versioning and testing tools. However, the attempt to avoid unexpected recovery is both time-consuming and error-prone. On the one hand, it requires disproportionate effort to minimize the risk of unexpected situations. On the other hand, applying recommended practices selectively, which saves time, can hardly avoid recovery. In addition, the constant need for foresight and self-control has unfavorable implications. It is exhaustive and impedes creative problem solving. This work proposes to make recovery fast and easy and introduces corresponding support called CoExist. Such dedicated support turns situations of unanticipated recovery from tedious experiences into pleasant ones. It makes recovery fast and easy to accomplish, even if explicit commits are unavailable or tests have been ignored for some time. When mistakes and unexpected insights are no longer associated with tedious corrective actions, programmers are encouraged to change source code as a means to reason about it, as opposed to making changes only after structuring and evaluating them mentally. This work further reports on an implementation of the proposed tool support in the Squeak/Smalltalk development environment. The development of the tools has been accompanied by regular performance and usability tests. In addition, this work investigates whether the proposed tools affect programmers’ performance. In a controlled lab study, 22 participants improved the design of two different applications. Using a repeated measurement setup, the study examined the effect of providing CoExist on programming performance. The result of analyzing 88 hours of programming suggests that built-in recovery support as provided with CoExist positively has a positive effect on programming performance in explorative programming tasks.
Der vorliegende Text gibt eine Bestandserhebung der bisher stattgefundenen Aktivitäten im E-Learning an der Universität Potsdam wieder, andererseits dient er auch dazu, Potenziale zu sichten und in einem nächstem Schritt daraus Ideen und Vorschläge für eine hochschulweite E-Learning-Strategie abzuleiten. Zielsetzung der Bestandsaufnahme ist es, die relevanten Informationen darzustellen, über den Platz der Universität Potsdam in der hochschulischen E-Learning-Landschaft zu orientieren und den Stand der Entwicklung zu bewerten.
Das Land des Lächelns zeigt unter Ministerpräsident Abe zunehmend fratzenhaftere Züge. Japans im negativen Sinne „reizvolle“ Politik irritiert nicht nur seine nächsten Nachbarn China und Korea. Auch die USA sind beunruhigt über das provokante Verhalten ihres Partners im Bündnisfalle. Territorialstreitigkeiten drohen zu eskalieren, die Auseinandersetzung mit der wenig ruhmreichen Vergangenheit wird verweigert. Läuft Japan Gefahr, sämtliche Sympathien zu verspielen?
Derzeit wird unser Planet von einem Netz neuer bilateraler Handelsverträge umspannt. Treibende Kräfte sind die alten Wirtschaftsmächte EU und USA. Aber auch neue Akteure in der Weltwirtschaft des 21. Jahrhunderts wie China oder Indien sind dabei. Solche Abkommen üben hohen Druck auf konkurrierende Ökonomien in den jeweiligen Regionen aus. So verschafften die Abkommen EU-Korea und Korea-USA den südkoreanischen Elektronik- und Automobilherstellern einen so großen Kostenvorteil, dass die japanische Regierung an den Verhandlungstisch mit der EU (bilateral) und mit den USA (plurilateral im Pazifikabkommen TPP) gezwungen wurde.
Ausências Brasil
(2014)
Von der Militärdiktatur ermordet und spurlos verschwunden – diese Ausstellung greift zurück auf Fotoalben der Familienangehörigen von Brasilianern, die der systematischen Repression, Folter und Verschleppung der brasilianischen Militärdiktatur (1964–1985) zum Opfer gefallen sind: Arbeiter, Stadtguerilleros, Studenten, Akademiker, ganze Familien.
Mehr Verantwortung?
(2014)
Ein neues Paradigma deutscher Außenpolitik? Auf die Reden der Münchner Sicherheitskonferenz 2014 gab es ein kontroverses Echo. Von den einen als wegweisend für Deutschlands zukünftige Rolle in der Welt gelobt, wurden sie von anderen als Plädoyer für militärisches Engagement gegeißelt. Aus unterschiedlichen Blickwinkeln nähert sich WeltTrends der jüngsten Kontroverse um ein Mehr an deutscher Verantwortung. Weitere Themen im Heft: Elitenkampf in Thailand, Chinas Rolle in der Weltpolitik, iranische und pakistanische Interessen in Afghanistan sowie die Abrüstung syrischer Chemiewaffen.
Die Zeitschrift möchte die fruchtbare und facettenreiche Kultur des Judentums sowie seine Berührungspunkte zur Umwelt in den unterschiedlichen Bereichen dokumentieren. Daneben dient die Zeitschrift als Forum zur Positionierung der Fächer Jüdische Studien und Judaistik innerhalb des wissenschaftlichen Diskurses sowie zur Diskussion ihrer historischen und gesellschaftlichen Verantwortung.
The zero-noise limit of differential equations with singular coefficients is investigated for the first time in the case when the noise is a general alpha-stable process. It is proved that extremal solutions are selected and the probability of selection is computed. Detailed analysis of the characteristic function of an exit time form on the half-line is performed, with a suitable decomposition in small and large jumps adapted to the singular drift.
When azobenzene-modified photosensitive polymer films are irradiated with light interference patterns, topographic variations in the film develop that follow the electric field vector distribution resulting in the formation of surface relief grating (SRG). The exact correspondence of the electric field vector orientation in interference pattern in relation to the presence of local topographic minima or maxima of SRG is in general difficult to determine. In my thesis, we have established a systematic procedure to accomplish the correlation between different interference patterns and the topography of SRG. For this, we devise a new setup combining an atomic force microscope and a two-beam interferometer (IIAFM). With this set-up, it is possible to track the topography change in-situ, while at the same time changing polarization and phase of the impinging interference pattern. To validate our results, we have compared two photosensitive materials named in short as PAZO and trimer. This is the first time that an absolute correspondence between the local distribution of electric field vectors of interference pattern and the local topography of the relief grating could be established exhaustively. In addition, using our IIAFM we found that for a certain polarization combination of two orthogonally polarized interfering beams namely SP (↕, ↔) interference pattern, the topography forms SRG with only half the period of the interference patterns. Exploiting this phenomenon we are able to fabricate surface relief structures below diffraction limit with characteristic features measuring only 140 nm, by using far field optics with a wavelength of 491 nm. We have also probed for the stresses induced during the polymer mass transport by placing an ultra-thin gold film on top (5–30 nm). During irradiation, the metal film not only deforms along with the SRG formation, but ruptures in regular and complex manner. The morphology of the cracks differs strongly depending on the electric field distribution in the interference pattern even when the magnitude and the kinetic of the strain are kept constant. This implies a complex local distribution of the opto-mechanical stress along the topography grating. The neutron reflectivity measurements of the metal/polymer interface indicate the penetration of metal layer within the polymer resulting in the formation of bonding layer that confirms the transduction of light induced stresses in the polymer layer to a metal film.
In Chapter 1 of the dissertation, the role of social networks is analyzed as an important determinant in the search behavior of the unemployed. Based on the hypothesis that the unemployed generate information on vacancies through their social network, search theory predicts that individuals with large social networks should experience an increased productivity of informal search, and reduce their search in formal channels. Due to the higher productivity of search, unemployed with a larger network are also expected to have a higher reservation wage than unemployed with a small network. The model-theoretic predictions are tested and confirmed empirically. It is found that the search behavior of unemployed is significantly affected by the presence of social contacts, with larger networks implying a stronger substitution away from formal search channels towards informal channels. The substitution is particularly pronounced for passive formal search methods, i.e., search methods that generate rather non-specific types of job offer information at low relative cost. We also find small but significant positive effects of an increase of the network size on the reservation wage. These results have important implications on the analysis of the job search monitoring or counseling measures that are usually targeted at formal search only. Chapter 2 of the dissertation addresses the labor market effects of vacancy information during the early stages of unemployment. The outcomes considered are the speed of exit from unemployment, the effects on the quality of employment and the short-and medium-term effects on active labor market program (ALMP) participation. It is found that vacancy information significantly increases the speed of entry into employment; at the same time the probability to participate in ALMP is significantly reduced. Whereas the long-term reduction in the ALMP arises in consequence of the earlier exit from unemployment, we also observe a short-run decrease for some labor market groups which suggest that caseworker use high and low intensity activation measures interchangeably which is clearly questionable from an efficiency point of view. For unemployed who find a job through vacancy information we observe a small negative effect on the weekly number of hours worked. In Chapter 3, the long-term effects of participation in ALMP are assessed for unemployed youth under 25 years of age. Complementary to the analysis in Chapter 2, the effects of participation in time- and cost-intensive measures of active labor market policies are examined. In particular we study the effects of job creation schemes, wage subsidies, short-and long-term training measures and measures to promote the participation in vocational training. The outcome variables of interest are the probability to be in regular employment, and participation in further education during the 60 months following program entry. The analysis shows that all programs, except job creation schemes have positive and long-term effects on the employment probability of youth. In the short-run only short-term training measures generate positive effects, as long-term training programs and wage subsidies exhibit significant locking-in'' effects. Measures to promote vocational training are found to increase the probability of attending education and training significantly, whereas all other programs have either no or a negative effect on training participation. Effect heterogeneity with respect to the pre-treatment level education shows that young people with higher pre-treatment educational levels benefit more from participation most programs. However, for longer-term wage subsidies we also find strong positive effects for young people with low initial education levels. The relative benefit of training measures is higher in West than in East Germany. In the evaluation studies of Chapters 2 and 3 semi-parametric balancing methods of Propensity Score Matching (PSM) and Inverse Probability Weighting (IPW) are used to eliminate the effects of counfounding factors that influence both the treatment participation as well as the outcome variable of interest, and to establish a causal relation between program participation and outcome differences. While PSM and IPW are intuitive and methodologically attractive as they do not require parametric assumptions, the practical implementation may become quite challenging due to their sensitivity to various data features. Given the importance of these methods in the evaluation literature, and the vast number of recent methodological contributions in this field, Chapter 4 aims to reduce the knowledge gap between the methodological and applied literature by summarizing new findings of the empirical and statistical literature and practical guidelines for future applied research. In contrast to previous publications this study does not only focus on the estimation of causal effects, but stresses that the balancing challenge can and should be discussed independent of question of causal identification of treatment effects on most empirical applications. Following a brief outline of the practical implementation steps required for PSM and IPW, these steps are presented in detail chronologically, outlining practical advice for each step. Subsequently, the topics of effect estimation, inference, sensitivity analysis and the combination with parametric estimation methods are discussed. Finally, new extensions of the methodology and avenues for future research are presented.
Lehre im Format der Forschung hat nicht nur das Potential zur Anknüpfung an das traditionelle Humboldt‘sche Ideal der Verschränkung von Forschung und Lernen und bietet damit eine Alternative zur vielfach beklagten „Verschulung“ der Bologna-Ära. Darüber hinaus unterstützt Lehre im Format der Forschung die Professionalisierung und fachspezifische Identitätsbildung der Studierenden. Der Beitrag ist in drei Abschnitte mit eigenen Fragestellungen unterteilt: Der erste Teil fragt nach einem grundlegenden Ziel der Hochschullehre und beschreibt dieses Ziel als wissenschaftsbasierte Professionalität, die zwingend Forschungskompetenz benötigt. Lehre im Format der Forschung wird als ein geeigneter Weg zu diesem Ziel beschrieben. Im zweiten Teil werden die Ähnlichkeiten und Unterschiede von Forschungs- und Lernprozessen herausgearbeitet, die als lerntheoretische Begründung für Lehre im Format der Forschung angesehen werden können. Abschließend werden unterschiedliche Typen einer Lehre im Format der Forschung vorgestellt – Typen, die sich hinsichtlich des intendierten Forschungsumfangs und des erforderlichen Aufwands unterscheiden.
This work is devoted to the convergence analysis of a modified Runge-Kutta-type iterative regularization method for solving nonlinear ill-posed problems under a priori and a posteriori stopping rules. The convergence rate results of the proposed method can be obtained under Hölder-type source-wise condition if the Fréchet derivative is properly scaled and locally Lipschitz continuous. Numerical results are achieved by using the Levenberg-Marquardt and Radau methods.
Matthias Klipp, Beigeordneter für Stadtentwicklung und Bauen der Stadtverwaltung Potsdam, diskutiert die Rolle von Genossenschaften als Bausteine kommunaler Wohnungspolitik. Am Beispiel der Landeshauptstadt Potsdam zeigt er Potenziale von Wohnungsbaugenossenschaften für die Sicherung einer attraktiven und ausreichenden Wohnungsversorgung für die BürgerInnen auf. Er resümiert, dass sich die Strategien der Stadt für Neubau und Bestand auch in Kooperation mit Wohnungsgenossenschaften gerade auch bei der sozialen Wohnraumversorgung für die Bevölkerung bewährt haben.
Genossenschaften
(2014)
Matthias Klipp, Beigeordneter für Stadtentwicklung und Bauen der Stadtverwaltung Potsdam, diskutiert die Rolle von Genossenschaften als Bausteine kommunaler Wohnungspolitik. Am Beispiel der Landeshauptstadt Potsdam zeigt er Potenziale von Wohnungsbaugenossenschaften für die Sicherung einer attraktiven und ausreichenden Wohnungsversorgung für die BürgerInnen auf. Er resümiert, dass sich die Strategien der Stadt für Neubau und Bestand auch in Kooperation mit Wohnungsgenossenschaften gerade auch bei der sozialen Wohnraumversorgung für die Bevölkerung bewährt haben.
Klaus-Dirk Henke, em. Lehrstuhlinhaber für Öffentliche Finanzen und Gesundheitsökonomie am Institut für Volkswirtschaftslehre und Wirtschaftsrecht der TU Berlin, behandelt, ausgehend von der derzeitigen Leistungserbringung im Gesundheitssektor, Chancen und Risiken der Leistungserbringung durch Genossenschaften.
Institutional Choice
(2014)
Tilmann Bezzenberger, Professur für Bürgerliches Recht, Gesellschaftsrecht und Europäisches Zivilrecht an der Universität Potsdam, befasst sich in seinem Beitrag zum Thema „Institutional Choice: Kapitalgesellschaft oder Genossenschaft?“ mit den Interessen und der Organisation in Genossenschaften und Kapitalgesellschaften. Er diskutiert die Frage, welche Rolle Genossenschaften oder Kapitalgesellschaften für die öffentliche Hand spielen. Im Detail geht er auf genossenschaftliche Privatisierungen, auf Energieversorgungs-Genossenschaften von öffentlicher Hand und von Bürgern sowie auf Aktiengesellschaften als Alternative ein.
Wolfgang George, Honorarprofessor der TH Mittelhessen und Vorstand der Andramedos eG, diskutiert ausgehend von seiner Definition der Regionalität Potenziale genossenschaftlicher Lösungen am Beispiel der Regionalen Energieversorgung (REV). Er resümiert, dass das Potenzial genossenschaftlicher Lösungen bis heute in diesem Feld nicht annähernd ausgeschöpft sei.
Andreas Wieg, Abteilungsleiter Vorstandsstab des „Deutschen Genossenschafts- und Raiffeisenverband e. V.“, befasst sich in seinem Beitrag mit der Krisenerprobung und Krisenresistenz des genossenschaftlichen Ordnungsmodells. Dabei geht er auf die genossenschaftliche Organisationsstruktur und auf die Genossenschaftsarten ein. Er beschreibt Möglichkeiten von Genossenschaftsgründungen und geht abschließend auf die Nachhaltigkeit neuer Genossenschaften ein.
Nowadays, software systems are getting more and more complex. To tackle this challenge most diverse techniques, such as design patterns, service oriented architectures (SOA), software development processes, and model-driven engineering (MDE), are used to improve productivity, while time to market and quality of the products stay stable. Multiple of these techniques are used in parallel to profit from their benefits. While the use of sophisticated software development processes is standard, today, MDE is just adopted in practice. However, research has shown that the application of MDE is not always successful. It is not fully understood when advantages of MDE can be used and to what degree MDE can also be disadvantageous for productivity. Further, when combining different techniques that aim to affect the same factor (e.g. productivity) the question arises whether these techniques really complement each other or, in contrast, compensate their effects. Due to that, there is the concrete question how MDE and other techniques, such as software development process, are interrelated. Both aspects (advantages and disadvantages for productivity as well as the interrelation to other techniques) need to be understood to identify risks relating to the productivity impact of MDE. Before studying MDE's impact on productivity, it is necessary to investigate the range of validity that can be reached for the results. This includes two questions. First, there is the question whether MDE's impact on productivity is similar for all approaches of adopting MDE in practice. Second, there is the question whether MDE's impact on productivity for an approach of using MDE in practice remains stable over time. The answers for both questions are crucial for handling risks of MDE, but also for the design of future studies on MDE success. This thesis addresses these questions with the goal to support adoption of MDE in future. To enable a differentiated discussion about MDE, the term MDE setting'' is introduced. MDE setting refers to the applied technical setting, i.e. the employed manual and automated activities, artifacts, languages, and tools. An MDE setting's possible impact on productivity is studied with a focus on changeability and the interrelation to software development processes. This is done by introducing a taxonomy of changeability concerns that might be affected by an MDE setting. Further, three MDE traits are identified and it is studied for which manifestations of these MDE traits software development processes are impacted. To enable the assessment and evaluation of an MDE setting's impacts, the Software Manufacture Model language is introduced. This is a process modeling language that allows to reason about how relations between (modeling) artifacts (e.g. models or code files) change during application of manual or automated development activities. On that basis, risk analysis techniques are provided. These techniques allow identifying changeability risks and assessing the manifestations of the MDE traits (and with it an MDE setting's impact on software development processes). To address the range of validity, MDE settings from practice and their evolution histories were capture in context of this thesis. First, this data is used to show that MDE settings cover the whole spectrum concerning their impact on changeability or interrelation to software development processes. Neither it is seldom that MDE settings are neutral for processes nor is it seldom that MDE settings have impact on processes. Similarly, the impact on changeability differs relevantly. Second, a taxonomy of evolution of MDE settings is introduced. In that context it is discussed to what extent different types of changes on an MDE setting can influence this MDE setting's impact on changeability and the interrelation to processes. The category of structural evolution, which can change these characteristics of an MDE setting, is identified. The captured MDE settings from practice are used to show that structural evolution exists and is common. In addition, some examples of structural evolution steps are collected that actually led to a change in the characteristics of the respective MDE settings. Two implications are: First, the assessed diversity of MDE settings evaluates the need for the analysis techniques that shall be presented in this thesis. Second, evolution is one explanation for the diversity of MDE settings in practice. To summarize, this thesis studies the nature and evolution of MDE settings in practice. As a result support for the adoption of MDE settings is provided in form of techniques for the identification of risks relating to productivity impacts.
Das Herbsttreffen Patholinguistik wird seit 2007 jährlich vom Verband für Patholinguistik e.V. (vpl) durchgeführt. Das 7. Herbsttreffen mit dem Schwerpunktthema "Hören – Zuhören – Dazugehören: Sprachtherapie bei Hörstörungen und Cochlea-Implantat" fand am 16.11.2013 in Potsdam statt. Der vorliegende Tagungsband beinhaltet die sechs Vorträge zum Schwerpunktthema aus verschiedenen Perspektiven: der medizinischen, der therapeutischen, der wissenschaftlichen sowie der von Betroffenen. Weiterhin sind die Beiträge der Posterpräsentationen zu Themen der sprachtherapeutischen Forschung und Praxis abgedruckt.
Previous studies on the acquisition of verb inflection in normally developing children have revealed an astonishing pattern: children use correctly inflected verbs in their own speech but fail to make use of verb inflections when comprehending sentences uttered by others. Thus, a three-year old might well be able to say something like ‘The cat sleeps on the bed’, but fails to understand that the same sentence, when uttered by another person, refers to only one sleeping cat but not more than one. The previous studies that have examined children's comprehension of verb inflections have employed a variant of a picture selection task in which the child was asked to explicitly indicate (via pointing) what semantic meaning she had inferred from the test sentence. Recent research on other linguistic structures, such as pronouns or focus particles, has indicated that earlier comprehension abilities can be found when methods are used that do not require an explicit reaction, like preferential looking tasks. This dissertation aimed to examine whether children are truly not able to understand the connection the the verb form and the meaning of the sentence subject until the age of five years or whether earlier comprehension can be found when a different measure, preferential looking, is used. Additionally, children's processing of subject-verb agreement violations was examined. The three experiments of this thesis that examined children's comprehension of verb inflections revealed the following: German-speaking three- to four-year old children looked more to a picture showing one actor when hearing a sentence with a singular inflected verb but only when their eye gaze was tracked and they did not have to perform a picture selection task. When they were asked to point to the matching picture, they performed at chance-level. This pattern indicates asymmetries in children's language performance even within the receptive modality. The fourth experiment examined sensitivity to subject-verb agreement violations and did not reveal evidence for sensitivity toward agreement violations in three- and four-year old children, but only found that children's looking patterns were influenced by the grammatical violations at the age of five. The results from these experiments are discussed in relation to the existence of a production-comprehension asymmetry in the use of verb inflections and children's underlying grammatical knowledge.
Genossenschaften wirken auf manche wie ein angestaubtes Relikt aus der Vergangenheit. Das eingetrübte Image überrascht. Denn Genossenschaften haben sich immer wieder als besonders krisenfest erwiesen und längst auch als erfolgreiches Zukunftsmodell entpuppt. Der stetige Zuwachs an Neugründungen, die steigenden Mitgliederzahlen und die ständige Ausweitung der Aktionsfelder bestätigen die hohe Attraktivität. Dem entspricht eine enorme Einsatzbreite der Genossenschaftsidee. Sie reicht von Agrargenossenschaften über Produktionsgenossenschaften in Handel, Handwerk und Gewerbe bis hin zu sehr modernen Bereichen etwa der neuen Informations- und Kommunikationstechnologien. In all diesen und vielen anderen Segmenten finden sich variantenreiche genossenschaftliche Gestaltungsoptionen nach Maximen wie Selbsthilfe, Solidarität, Bürgerengagement, Partizipation, Mitglieder- und Gemeinwohlorientierung. Inzwischen lockt die hohe Anziehungskraft der Genossenschaftsidee auch die Kommunen. Angestoßen durch gesetzgeberische Impulse erleben die Genossenschaften auf der kommunalen Ebene derzeit bundesweit einen richtigen Aufschwung. Die Aufwertung erweitert die Überlegungen zur Gewährleistung und Optimierung kommunaler Leistungserbringung um eine wichtige Gestaltungsvariante, nimmt aber den Kommunen die Auswahlentscheidung nicht ab. Denn wie bei allen Organisationsentscheidungen ist vor dem Rückgriff auf genossenschaftliche Organisationsformen in jedem Einzelfall eine nüchterne aufgaben-, sach- und situationsbezogene Vergleichsanalyse geboten, die den Entscheidungsträgern spezifische Kenntnisse und detaillierte Fachkompetenz abverlangt. Die 19. Fachtagung des KWI diskutiert rechtliche Rahmenbedingungen und normative Direktiven, praktische Erfahrungen, Einsatzfelder, Erfolgsbedingungen und Fallstricke in der Praxis.
Genossenschaften im Aufwind
(2014)
Hartmut Bauer, geschäftsführender Direktor des KWI, und Friedrich Markmann, wissenschaftlicher Mitarbeiter der Juristischen Fakultät der Universität Potsdam, führen in die Thematik ein. Gegenstand seines Beitrages sind auf der einen Seite rechtsstaatliche Befunde zum Thema Genossenschaften sowie Einsatzbreite. Auf der anderen Seite diskutiert er die kommunalen Einsatzfelder und die Rolle von Genossenschaften in der kommunalen Modernisierungsstrategie. In der Debatte zu den Entwicklungsperspektiven kommt Hartmut Bauer zu dem Schluss, dass die Genossenschaft national und international alles andere als ein Auslaufmodell ist.
Stabilität und Dynamik der Verfassungsprinzipien des Grundgesetzes der Bundesrepublik Deutschland
(2014)
Der Band enthält die Tagungsmaterialien des deutsch-russichen Symposiums zum Thema "Verfassungsentwicklung in Russland und Deutschland", welches am 25. und 26. September 2013 in Potsdam stattfand. Die Tagung wurde anlässlich des 20. Jahrestages der russischen Verfassung vom Dezember 2013 durchgeführt. Die inhaltlichen Schwerpunkte bilden die Themen: Verfassungsentstehung, Verfassungsänderung, Verfassungsprinzipien, Landesverfassungen, Fortentwicklung der Verfassung durch die Verfassungsgerichtsbarkeit und Grundrechte, die jeweils aus russischer und deutscher Sicht behandelt werden. Ergänzend befasst sich jeweils ein Betrag mit aktuellen Problemen der Menschenrechtsverwirklichung in Russland und der Ausländerintegration in Deutschland und Russland im Vergleich.
Die vorliegende Studie untersucht die gesellschaftliche Rolle des gegenwärtigen Mathematikunterrichts an deutschen allgemeinbildenden Schulen aus einer soziologisch-kritischen Perspektive. In Zentrum des Interesses steht die durch den Mathematikunterricht erfahrene Sozialisation. Die Studie umfasst unter anderem eine Literaturdiskussion, die Ausarbeitung eines soziologischen Rahmens auf der Grundlage des Werks von Michel Foucault und zwei Teilstudien zur Soziologie der Logik und des Rechnens. Abschließend werden Dispositive des Mathematischen beschrieben, die darlegen, in welcher Art und mit welcher persönlichen und gesellschaftlichen Folgen der gegenwärtige Mathematikunterricht eine spezielle Geisteshaltung etabliert.
Donor-acceptor (D-A) copolymers have revolutionized the field of organic electronics over the last decade. Comprised of a electron rich and an electron deficient molecular unit, these copolymers facilitate the systematic modification of the material's optoelectronic properties. The ability to tune the optical band gap and to optimize the molecular frontier orbitals as well as the manifold of structural sites that enable chemical modifications has created a tremendous variety of copolymer structures. Today, these materials reach or even exceed the performance of amorphous inorganic semiconductors. Most impressively, the charge carrier mobility of D-A copolymers has been pushed to the technologically important value of 10 cm^{2}V^{-1}s^{-1}. Furthermore, owed to their enormous variability they are the material of choice for the donor component in organic solar cells, which have recently surpassed the efficiency threshold of 10%. Because of the great number of available D-A copolymers and due to their fast chemical evolution, there is a significant lack of understanding of the fundamental physical properties of these materials. Furthermore, the complex chemical and electronic structure of D-A copolymers in combination with their semi-crystalline morphology impede a straightforward identification of the microscopic origin of their superior performance. In this thesis, two aspects of prototype D-A copolymers were analysed. These are the investigation of electron transport in several copolymers and the application of low band gap copolymers as acceptor component in organic solar cells. In the first part, the investigation of a series of chemically modified fluorene-based copolymers is presented. The charge carrier mobility varies strongly between the different derivatives, although only moderate structural changes on the copolymers structure were made. Furthermore, rather unusual photocurrent transients were observed for one of the copolymers. Numerical simulations of the experimental results reveal that this behavior arises from a severe trapping of electrons in an exponential distribution of trap states. Based on the comparison of simulation and experiment, the general impact of charge carrier trapping on the shape of photo-CELIV and time-of-flight transients is discussed. In addition, the high performance naphthalenediimide (NDI)-based copolymer P(NDI2OD-T2) was characterized. It is shown that the copolymer posses one of the highest electron mobilities reported so far, which makes it attractive to be used as the electron accepting component in organic photovoltaic cells.\par Solar cells were prepared from two NDI-containing copolymers, blended with the hole transporting polymer P3HT. I demonstrate that the use of appropriate, high boiling point solvents can significantly increase the power conversion efficiency of these devices. Spectroscopic studies reveal that the pre-aggregation of the copolymers is suppressed in these solvents, which has a strong impact on the blend morphology. Finally, a systematic study of P3HT:P(NDI2OD-T2) blends is presented, which quantifies the processes that limit the efficiency of devices. The major loss channel for excited states was determined by transient and steady state spectroscopic investigations: the majority of initially generated electron-hole pairs is annihilated by an ultrafast geminate recombination process. Furthermore, exciton self-trapping in P(NDI2OD-T2) domains account for an additional reduction of the efficiency. The correlation of the photocurrent to microscopic morphology parameters was used to disclose the factors that limit the charge generation efficiency. Our results suggest that the orientation of the donor and acceptor crystallites relative to each other represents the main factor that determines the free charge carrier yield in this material system. This provides an explanation for the overall low efficiencies that are generally observed in all-polymer solar cells.
Die Tränen des Henri Quatre
(2014)
Der vorliegende zweite Band mit Texten aus dem Nachlass von Dieter Adelmann (1936–2008) macht eine der letzten Arbeiten, die ihr Verfasser anlässlich seines 70. Geburtstags aus der Hand gegeben hat, für ein breites Publikum zugänglich. Der Essay bildet dabei einen Abschluss von Adelmanns ersten, im weitesten Sinne philosophischen Publikationen, die nach der Doktorarbeit (Bd. 1 der Nachlasspublikationen) entstanden sind. Ausgehend von einer Beobachtung in Heinrich Manns epochaler Doppelromanbiografie des navarresisch-französischen protestantischen Königs Henri IV. untersucht Adelmann die Tränen- und Todesmetaphorik in dem Romanwerk aus den 1930er Jahren. Von hier aus wird eine Brücke zur literaturwissenschaftlichen Ästhetik und Erkenntnistheorie Walter Benjamins geschlagen, mit der sich Adelmann bereits in seinen Arbeiten zur Politkunst Klaus Staecks beschäftigt hatte. Dabei deckt der Verfasser Fehlinterpretationen der Benjaminschen Theorien durch dessen Freund und Nachlassverwalter Theodor W. Adorno auf.
Processes having the same bridges as a given reference Markov process constitute its reciprocal class. In this paper we study the reciprocal class of compound Poisson processes whose jumps belong to a finite set A in R^d. We propose a characterization of the reciprocal class as the unique set of probability measures on which a family of time and space transformations induces the same density, expressed in terms of the reciprocal invariants. The geometry of A plays a crucial role in the design of the transformations, and we use tools from discrete geometry to obtain an optimal characterization. We deduce explicit conditions for two Markov jump processes to belong to the same class. Finally, we provide a natural interpretation of the invariants as short-time asymptotics for the probability that the reference process makes a cycle around its current state.
Unstetige Galerkin-Diskretisierung niedriger Ordnung in einem atmosphärischen Multiskalenmodell
(2014)
Die Dynamik der Atmosphäre der Erde umfasst einen Bereich von mikrophysikalischer Turbulenz über konvektive Prozesse und Wolkenbildung bis zu planetaren Wellenmustern. Für Wettervorhersage und zur Betrachtung des Klimas über Jahrzehnte und Jahrhunderte ist diese Gegenstand der Modellierung mit numerischen Verfahren. Mit voranschreitender Entwicklung der Rechentechnik sind Neuentwicklungen der dynamischen Kerne von Klimamodellen, die mit der feiner werdenden Auflösung auch entsprechende Prozesse auflösen können, notwendig. Der dynamische Kern eines Modells besteht in der Umsetzung (Diskretisierung) der grundlegenden dynamischen Gleichungen für die Entwicklung von Masse, Energie und Impuls, so dass sie mit Computern numerisch gelöst werden können. Die vorliegende Arbeit untersucht die Eignung eines unstetigen Galerkin-Verfahrens niedriger Ordnung für atmosphärische Anwendungen. Diese Eignung für Gleichungen mit Wirkungen von externen Kräften wie Erdanziehungskraft und Corioliskraft ist aus der Theorie nicht selbstverständlich. Es werden nötige Anpassungen beschrieben, die das Verfahren stabilisieren, ohne sogenannte „slope limiter” einzusetzen. Für das unmodifizierte Verfahren wird belegt, dass es nicht geeignet ist, atmosphärische Gleichgewichte stabil darzustellen. Das entwickelte stabilisierte Modell reproduziert eine Reihe von Standard-Testfällen der atmosphärischen Dynamik mit Euler- und Flachwassergleichungen in einem weiten Bereich von räumlichen und zeitlichen Skalen. Die Lösung der thermischen Windgleichung entlang der mit den Isobaren identischen charakteristischen Kurven liefert atmosphärische Gleichgewichtszustände mit durch vorgegebenem Grundstrom einstellbarer Neigung zu(barotropen und baroklinen)Instabilitäten, die für die Entwicklung von Zyklonen wesentlich sind. Im Gegensatz zu früheren Arbeiten sind diese Zustände direkt im z-System(Höhe in Metern)definiert und müssen nicht aus Druckkoordinaten übertragen werden.Mit diesen Zuständen, sowohl als Referenzzustand, von dem lediglich die Abweichungen numerisch betrachtet werden, und insbesondere auch als Startzustand, der einer kleinen Störung unterliegt, werden verschiedene Studien der Simulation von barotroper und barokliner Instabilität durchgeführt. Hervorzuheben ist dabei die durch die Formulierung von Grundströmen mit einstellbarer Baroklinität ermöglichte simulationsgestützte Studie des Grades der baroklinen Instabilität verschiedener Wellenlängen in Abhängigkeit von statischer Stabilität und vertikalem Windgradient als Entsprechung zu Stabilitätskarten aus theoretischen Betrachtungen in der Literatur.
Design and Implementation of service-oriented architectures imposes a huge number of research questions from the fields of software engineering, system analysis and modeling, adaptability, and application integration. Component orientation and web services are two approaches for design and realization of complex web-based system. Both approaches allow for dynamic application adaptation as well as integration of enterprise application. Commonly used technologies, such as J2EE and .NET, form de facto standards for the realization of complex distributed systems. Evolution of component systems has lead to web services and service-based architectures. This has been manifested in a multitude of industry standards and initiatives such as XML, WSDL UDDI, SOAP, etc. All these achievements lead to a new and promising paradigm in IT systems engineering which proposes to design complex software solutions as collaboration of contractually defined software services. Service-Oriented Systems Engineering represents a symbiosis of best practices in object-orientation, component-based development, distributed computing, and business process management. It provides integration of business and IT concerns. The annual Ph.D. Retreat of the Research School provides each member the opportunity to present his/her current state of their research and to give an outline of a prospective Ph.D. thesis. Due to the interdisciplinary structure of the Research Scholl, this technical report covers a wide range of research topics. These include but are not limited to: Self-Adaptive Service-Oriented Systems, Operating System Support for Service-Oriented Systems, Architecture and Modeling of Service-Oriented Systems, Adaptive Process Management, Services Composition and Workflow Planning, Security Engineering of Service-Based IT Systems, Quantitative Analysis and Optimization of Service-Oriented Systems, Service-Oriented Systems in 3D Computer Graphics sowie Service-Oriented Geoinformatics.
The contractile vacuole (CV) is an osmoregulatory organelle found exclusively in algae and protists. In addition to expelling excessive water out of the cell, it also expels ions and other metabolites and thereby contributes to the cell's metabolic homeostasis. The interest in the CV reaches beyond its immediate cellular roles. The CV's function is tightly related to basic cellular processes such as membrane dynamics and vesicle budding and fusion; several physiological processes in animals, such as synaptic neurotransmission and blood filtration in the kidney, are related to the CV's function; and several pathogens, such as the causative agents of sleeping sickness, possess CVs, which may serve as pharmacological targets. The green alga Chlamydomonas reinhardtii has two CVs. They are the smallest known CVs in nature, and they remain relatively untouched in the CV-related literature. Many genes that have been shown to be related to the CV in other organisms have close homologues in C. reinhardtii. We attempted to silence some of these genes and observe the effect on the CV. One of our genes, VMP1, caused striking, severe phenotypes when silenced. Cells exhibited defective cytokinesis and aberrant morphologies. The CV, incidentally, remained unscathed. In addition, mutant cells showed some evidence of disrupted autophagy. Several important regulators of the cell cycle as well as autophagy were found to be underexpressed in the mutant. Lipidomic analysis revealed many meaningful changes between wild-type and mutant cells, reinforcing the compromised-autophagy observation. VMP1 is a singular protein, with homologues in numerous eukaryotic organisms (aside from fungi), but usually with no relatives in each particular genome. Since its first characterization in 2002 it has been associated with several cellular processes and functions, namely autophagy, programmed cell-death, secretion, cell adhesion, and organelle biogenesis. It has been implicated in several human diseases: pancreatitis, diabetes, and several types of cancer. Our results reiterate some of the observations in VMP1's six reported homologues, but, importantly, show for the first time an involvement of this protein in cell division. The mechanisms underlying this involvement in Chlamydomonas, as well as other key aspects, such as VMP1's subcellular localization and interaction partners, still await elucidation.
摘要。哈索•普拉特纳研究院 (HPI) 的新型互动在线教育平台 openHPI (https://openHPI.de) 可以为从事信息技术和信息学领域内容的工作和感兴趣的学员提供可自由访问的、免费的在线课程。与斯坦福大学于 2011 年首推,之后也在美国其他精英大学提供的“网络公开群众课”(简称 MOOC)一样,openHPI 同样在互联网中提供学习视频和阅读材料,其中综合了支持学习的自我测试、家庭作业和社交讨论论坛,并刺激对促进学习的虚拟学习团队的培训。与“传统的”讲座平台,比如 tele-TASK 平台 (http://www.tele-task.de) 不同(在该平台中,可调用以多媒体方式记录的和已准备好的讲座),openHPI 提供的是按教学法准备的在线课程。这些课程的开始时间固定,之后在连续六个课程周稳定的提供以多媒体方式准备的、尽可能可以互动的学习材料。每周讲解课程主题的一章。为此在该周开始前会准备一系列学习视频、文字、自我测试和家庭作业材料,课程学员在该周将精力用于处理这些内容。这些计划与一个社交讨论平台相结合,学员在该平台上可以与课程导师和其他学员交换意见、解答问题和讨论更多主题。当然,学员可以自己决定学习活动的类型和范围。他们可以为课程作出自己的贡献,比如在论坛中引用博文或推文。之后其他学员可以评论、讨论或自己扩展这些博文或推文。这样学员、教师和提供的学习内容就在一个虚拟的团体中与社交学习网络相互结合起来。
Cloud security mechanisms
(2014)
Cloud computing has brought great benefits in cost and flexibility for provisioning services. The greatest challenge of cloud computing remains however the question of security. The current standard tools in access control mechanisms and cryptography can only partly solve the security challenges of cloud infrastructures. In the recent years of research in security and cryptography, novel mechanisms, protocols and algorithms have emerged that offer new ways to create secure services atop cloud infrastructures. This report provides introductions to a selection of security mechanisms that were part of the "Cloud Security Mechanisms" seminar in summer term 2013 at HPI.
We consider a general class of finite dimensional deterministic dynamical systems with finitely many local attractors each of which supports a unique ergodic probability measure, which includes in particular the class of Morse–Smale systems in any finite dimension. The dynamical system is perturbed by a multiplicative non-Gaussian heavytailed Lévy type noise of small intensity ε > 0. Specifically we consider perturbations leading to a Itô, Stratonovich and canonical (Marcus) stochastic differential equation. The respective asymptotic first exit time and location problem from each of the domains of attractions in case of inward pointing vector fields in the limit of ε-> 0 has been investigated by the authors. We extend these results to domains with characteristic boundaries and show that the perturbed system exhibits a metastable behavior in the sense that there exits a unique ε-dependent time scale on which the random system converges to a continuous time Markov chain switching between the invariant measures. As examples we consider α-stable perturbations of the Duffing equation and a chemical system exhibiting a birhythmic behavior.
The objective and motivation behind this research is to provide applications with easy-to-use interfaces to communities of deaf and functionally illiterate users, which enables them to work without any human assistance. Although recent years have witnessed technological advancements, the availability of technology does not ensure accessibility to information and communication technologies (ICT). Extensive use of text from menus to document contents means that deaf or functionally illiterate can not access services implemented on most computer software. Consequently, most existing computer applications pose an accessibility barrier to those who are unable to read fluently. Online technologies intended for such groups should be developed in continuous partnership with primary users and include a thorough investigation into their limitations, requirements and usability barriers. In this research, I investigated existing tools in voice, web and other multimedia technologies to identify learning gaps and explored ways to enhance the information literacy for deaf and functionally illiterate users. I worked on the development of user-centered interfaces to increase the capabilities of deaf and low literacy users by enhancing lexical resources and by evaluating several multimedia interfaces for them. The interface of the platform-independent Italian Sign Language (LIS) Dictionary has been developed to enhance the lexical resources for deaf users. The Sign Language Dictionary accepts Italian lemmas as input and provides their representation in the Italian Sign Language as output. The Sign Language dictionary has 3082 signs as set of Avatar animations in which each sign is linked to a corresponding Italian lemma. I integrated the LIS lexical resources with MultiWordNet (MWN) database to form the first LIS MultiWordNet(LMWN). LMWN contains information about lexical relations between words, semantic relations between lexical concepts (synsets), correspondences between Italian and sign language lexical concepts and semantic fields (domains). The approach enhances the deaf users’ understanding of written Italian language and shows that a relatively small set of lexicon can cover a significant portion of MWN. Integration of LIS signs with MWN made it useful tool for computational linguistics and natural language processing. The rule-based translation process from written Italian text to LIS has been transformed into service-oriented system. The translation process is composed of various modules including parser, semantic interpreter, generator, and spatial allocation planner. This translation procedure has been implemented in the Java Application Building Center (jABC), which is a framework for extreme model driven design (XMDD). The XMDD approach focuses on bringing software development closer to conceptual design, so that the functionality of a software solution could be understood by someone who is unfamiliar with programming concepts. The transformation addresses the heterogeneity challenge and enhances the re-usability of the system. For enhancing the e-participation of functionally illiterate users, two detailed studies were conducted in the Republic of Rwanda. In the first study, the traditional (textual) interface was compared with the virtual character-based interactive interface. The study helped to identify usability barriers and users evaluated these interfaces according to three fundamental areas of usability, i.e. effectiveness, efficiency and satisfaction. In another study, we developed four different interfaces to analyze the usability and effects of online assistance (consistent help) for functionally illiterate users and compared different help modes including textual, vocal and virtual character on the performance of semi-literate users. In our newly designed interfaces the instructions were automatically translated in Swahili language. All the interfaces were evaluated on the basis of task accomplishment, time consumption, System Usability Scale (SUS) rating and number of times the help was acquired. The results show that the performance of semi-literate users improved significantly when using the online assistance. The dissertation thus introduces a new development approach in which virtual characters are used as additional support for barely literate or naturally challenged users. Such components enhanced the application utility by offering a variety of services like translating contents in local language, providing additional vocal information, and performing automatic translation from text to sign language. Obviously, there is no such thing as one design solution that fits for all in the underlying domain. Context sensitivity, literacy and mental abilities are key factors on which I concentrated and the results emphasize that computer interfaces must be based on a thoughtful definition of target groups, purposes and objectives.
Menschenrechte in der Zuwanderungsgesellschaft : 2. Potsdamer MenschenRechtsTag am 22. November 2012
(2014)
Am Potsdamer MenschenRechtsTag – zeitlich in Nähe zum Internationalen Tag der Menschenrechte am 10. Dezember gelegen – diskutiert das MenschenRechtsZentrum der Universität Potsdam wichtige Menschenrechtsthemen mit einem konkreten gesellschafts- und oder rechtspolitischen Bezug. Ende 2012 lag der Fokus auf den Menschenrechten von Zuwanderern. Aus einer grundlegenden philosophischen Perspektive wurde erläutert, dass Beschränkungen des menschenrechtlichen Status dieser Personengruppe nur schwer und in Einzelfällen begründbar sind; eine praktische und rechtspolitische Sichtweise legte konkreten Reformbedarf im Asylverfahren offen, dem inzwischen immerhin zum Teil entsprochen wurde.
Surface displacement at volcanic edifices is related to subsurface processes associated with magma movements, fluid transfers within the volcano edifice and gravity-driven deformation processes. Understanding of associated ground displacements is of importance for assessment of volcanic hazards. For example, volcanic unrest is often preceded by surface uplift, caused by magma intrusion and followed by subsidence, after the withdrawal of magma. Continuous monitoring of the surface displacement at volcanoes therefore might allow the forecasting of upcoming eruptions to some extent. In geophysics, the measured surface displacements allow the parameters of possible deformation sources to be estimated through analytical or numerical modeling. This is one way to improve the understanding of subsurface processes acting at volcanoes. Although the monitoring of volcanoes has significantly improved in the last decades (in terms of technical advancements and number of monitored volcanoes), the forecasting of volcanic eruptions remains puzzling. In this work I contribute towards the understanding of the subsurface processes at volcanoes and thus to the improvement of volcano eruption forecasting. I have investigated the displacement field of Llaima volcano in Chile and of Tendürek volcano in East Turkey by using synthetic aperture radar interferometry (InSAR). Through modeling of the deformation sources with the extracted displacement data, it was possible to gain insights into potential subsurface processes occurring at these two volcanoes that had been barely studied before. The two volcanoes, although of very different origin, composition and geometry, both show a complexity of interacting deformation sources. At Llaima volcano, the InSAR technique was difficult to apply, due to the large decorrelation of the radar signal between the acquisition of images. I developed a model-based unwrapping scheme, which allows the production of reliable displacement maps at the volcano that I used for deformation source modeling. The modeling results show significant differences in pre- and post-eruptive magmatic deformation source parameters. Therefore, I conjecture that two magma chambers exist below Llaima volcano: a post-eruptive deep one and a shallow one possibly due to the pre-eruptive ascent of magma. Similar reservoir depths at Llaima have been confirmed by independent petrologic studies. These reservoirs are interpreted to be temporally coupled. At Tendürek volcano I have found long-term subsidence of the volcanic edifice, which can be described by a large, magmatic, sill-like source that is subject to cooling contraction. The displacement data in conjunction with high-resolution optical images, however, reveal arcuate fractures at the eastern and western flank of the volcano. These are most likely the surface expressions of concentric ring-faults around the volcanic edifice that show low magnitudes of slip over a long time. This might be an alternative mechanism for the development of large caldera structures, which are so far assumed to be generated during large catastrophic collapse events. To investigate the potential subsurface geometry and relation of the two proposed interacting sources at Tendürek, a sill-like magmatic source and ring-faults, I have performed a more sophisticated numerical modeling approach. The optimum source geometries show, that the size of the sill-like source was overestimated in the simple models and that it is difficult to determine the dip angle of the ring-faults with surface displacement data only. However, considering physical and geological criteria a combination of outward-dipping reverse faults in the west and inward-dipping normal faults in the east seem to be the most likely. Consequently, the underground structure at the Tendürek volcano consists of a small, sill-like, contracting, magmatic source below the western summit crater that causes a trapdoor-like faulting along the ring-faults around the volcanic edifice. Therefore, the magmatic source and the ring-faults are also interpreted to be temporally coupled. In addition, a method for data reduction has been improved. The modeling of subsurface deformation sources requires only a relatively small number of well distributed InSAR observations at the earth’s surface. Satellite radar images, however, consist of several millions of these observations. Therefore, the large amount of data needs to be reduced by several orders of magnitude for source modeling, to save computation time and increase model flexibility. I have introduced a model-based subsampling approach in particular for heterogeneously-distributed observations. It allows a fast calculation of the data error variance-covariance matrix, also supports the modeling of time dependent displacement data and is, therefore, an alternative to existing methods.
Das Europäische Parlament ist zweifelsohne die mächtigste parlamentarische Versammlung auf supranationaler Ebene. Das provoziert die Frage, wie Entscheidungen in diesem Parlament gefällt werden und wie sie begründet werden können. Darin liegt das Hauptanliegen dieser Arbeit, die zur Beantwortung dieser Frage auf soziologische Ansätze der Erklärung sozialen Handelns zurückgreift und damit einen neuen Zugang zur Beobachtung parlamentarischen Handelns schafft. Dabei arbeitet sie heraus, wie wichtig es ist, bei der Analyse politischer Entscheidungsprozesse zu beachten, wie politische Probleme von Akteuren interpretiert und gegenüber Verhandlungspartnern dargestellt werden. An den Fallbeispielen der Entscheidungsprozesse zur Dienstleistungsrichtlinie, zur Chemikalien-Verordnung REACH und dem TDIP (CIA)-Ausschuss in der Legislaturperiode 2004–2009, wird der soziale Mechanismus dargestellt, der hinter Einigungen im Europäischen Parlament steckt. Kultur als Interpretation der Welt wird so zum Schlüssel des Verständnisses politischer Entscheidungen auf supranationaler Ebene.
The paper is devoted to asymptotic analysis of the Dirichlet problem for a second order partial differential equation containing a small parameter multiplying the highest order derivatives. It corresponds to a small perturbation of a dynamical system having a stationary solution in the domain. We focus on the case where the trajectories of the system go into the domain and the stationary solution is a proper node.
Today, it is well known that galaxies like the Milky Way consist not only of stars but also of gas and dust. The galactic halo, a sphere of gas that surrounds the stellar disk of a galaxy, is especially interesting. It provides a wealth of information about in and outflowing gaseous material towards and away from galaxies and their hierarchical evolution. For the Milky Way, the so-called high-velocity clouds (HVCs), fast moving neutral gas complexes in the halo that can be traced by absorption-line measurements, are believed to play a crucial role in the overall matter cycle in our Galaxy. Over the last decades, the properties of these halo structures and their connection to the local circumgalactic and intergalactic medium (CGM and IGM, respectively) have been investigated in great detail by many different groups. So far it remains unclear, however, to what extent the results of these studies can be transferred to other galaxies in the local Universe. In this thesis, we study the absorption properties of Galactic HVCs and compare the HVC absorption characteristics with those of intervening QSO absorption-line systems at low redshift. The goal of this project is to improve our understanding of the spatial extent and physical conditions of gaseous galaxy halos in the local Universe. In the first part of the thesis we use HST /STIS ultraviolet spectra of more than 40 extragalactic background sources to statistically analyze the absorption properties of the HVCs in the Galactic halo. We determine fundamental absorption line parameters including covering fractions of different weakly/intermediately/highly ionized metals with a particular focus on SiII and MgII. Due to the similarity in the ionization properties of SiII and MgII, we are able to estimate the contribution of HVC-like halo structures to the cross section of intervening strong MgII absorbers at z = 0. Our study implies that only the most massive HVCs would be regarded as strong MgII absorbers, if the Milky Way halo would be seen as a QSO absorption line system from an exterior vantage point. Combining the observed absorption-cross section of Galactic HVCs with the well-known number density of intervening strong MgII absorbers at z = 0, we conclude that the contribution of infalling gas clouds (i.e., HVC analogs) in the halos of Milky Way-type galaxies to the cross section of strong MgII absorbers is 34%. This result indicates that only about one third of the strong MgII absorption can be associated with HVC analogs around other galaxies, while the majority of the strong MgII systems possibly is related to galaxy outflows and winds. The second part of this thesis focuses on the properties of intervening metal absorbers at low redshift. The analysis of the frequency and physical conditions of intervening metal systems in QSO spectra and their relation to nearby galaxies offers new insights into the typical conditions of gaseous galaxy halos. One major aspect in our study was to regard intervening metal systems as possible HVC analogs. We perform a detailed analysis of absorption line properties and line statistics for 57 metal absorbers along 78 QSO sightlines using newly-obtained ultraviolet spectra obtained with HST /COS. We find clear evidence for bimodal distribution in the HI column density in the absorbers, a trend that we interpret as sign for two different classes of absorption systems (with HVC analogs at the high-column density end). With the help of the strong transitions of SiII λ1260, SiIII λ1206, and CIII λ977 we have set up Cloudy photoionization models to estimate the local ionization conditions, gas densities, and metallicities. We find that the intervening absorption systems studied by us have, on average, similar physical conditions as Galactic HVC absorbers, providing evidence that many of them represent HVC analogs in the vicinity of other galaxies. We therefore determine typical halo sizes for SiII, SiIII, and CIII for L = 0.01L∗ and L = 0.05L∗ galaxies. Based on the covering fractions of the different ions in the Galactic halo, we find that, for example, the typical halo size for SiIII is ∼ 160 kpc for L = 0.05L∗ galaxies. We test the plausibility of this result by searching for known galaxies close to the QSO sightlines and at similar redshifts as the absorbers. We find that more than 34% of the measured SiIII absorbers have galaxies associated with them, with the majority of the absorbers indeed being at impact parameters ρ ≤160 kpc.
Organizations try to gain competitive advantages, and to increase customer satisfaction. To ensure the quality and efficiency of their business processes, they perform business process management. An important part of process management that happens on the daily operational level is process controlling. A prerequisite of controlling is process monitoring, i.e., keeping track of the performed activities in running process instances. Only by process monitoring can business analysts detect delays and react to deviations from the expected or guaranteed performance of a process instance. To enable monitoring, process events need to be collected from the process environment. When a business process is orchestrated by a process execution engine, monitoring is available for all orchestrated process activities. Many business processes, however, do not lend themselves to automatic orchestration, e.g., because of required freedom of action. This situation is often encountered in hospitals, where most business processes are manually enacted. Hence, in practice it is often inefficient or infeasible to document and monitor every process activity. Additionally, manual process execution and documentation is prone to errors, e.g., documentation of activities can be forgotten. Thus, organizations face the challenge of process events that occur, but are not observed by the monitoring environment. These unobserved process events can serve as basis for operational process decisions, even without exact knowledge of when they happened or when they will happen. An exemplary decision is whether to invest more resources to manage timely completion of a case, anticipating that the process end event will occur too late. This thesis offers means to reason about unobserved process events in a probabilistic way. We address decisive questions of process managers (e.g., "when will the case be finished?", or "when did we perform the activity that we forgot to document?") in this thesis. As main contribution, we introduce an advanced probabilistic model to business process management that is based on a stochastic variant of Petri nets. We present a holistic approach to use the model effectively along the business process lifecycle. Therefore, we provide techniques to discover such models from historical observations, to predict the termination time of processes, and to ensure quality by missing data management. We propose mechanisms to optimize configuration for monitoring and prediction, i.e., to offer guidance in selecting important activities to monitor. An implementation is provided as a proof of concept. For evaluation, we compare the accuracy of the approach with that of state-of-the-art approaches using real process data of a hospital. Additionally, we show its more general applicability in other domains by applying the approach on process data from logistics and finance.
Automated location of seismic events is a very important task in microseismic monitoring operations as well for local and regional seismic monitoring. Since microseismic records are generally characterised by low signal-to-noise ratio, such methods are requested to be noise robust and sufficiently accurate. Most of the standard automated location routines are based on the automated picking, identification and association of the first arrivals of P and S waves and on the minimization of the residuals between theoretical and observed arrival times of the considered seismic phases. Although current methods can accurately pick P onsets, the automatic picking of the S onset is still problematic, especially when the P coda overlaps the S wave onset. In this thesis I developed a picking free automated method based on the Short-Term-Average/Long-Term-Average (STA/LTA) traces at different stations as observed data. I used the STA/LTA of several characteristic functions in order to increase the sensitiveness to the P wave and the S waves. For the P phases we use the STA/LTA traces of the vertical energy function, while for the S phases, we use the STA/LTA traces of the horizontal energy trace and then a more optimized characteristic function which is obtained using the principal component analysis technique. The orientation of the horizontal components can be retrieved by robust and linear approach of waveform comparison between stations within a network using seismic sources outside the network (chapter 2). To locate the seismic event, we scan the space of possible hypocentral locations and origin times, and stack the STA/LTA traces along the theoretical arrival time surface for both P and S phases. Iterating this procedure on a three-dimensional grid we retrieve a multidimensional matrix whose absolute maximum corresponds to the spatial and temporal coordinates of the seismic event. Location uncertainties are then estimated by perturbing the STA/LTA parameters (i.e the length of both long and short time windows) and relocating each event several times. In order to test the location method I firstly applied it to a set of 200 synthetic events. Then we applied it to two different real datasets. A first one related to mining induced microseismicity in a coal mine in the northern Germany (chapter 3). In this case we successfully located 391 microseismic event with magnitude range between 0.5 and 2.0 Ml. To further validate the location method I compared the retrieved locations with those obtained by manual picking procedure. The second dataset consist in a pilot application performed in the Campania-Lucania region (southern Italy) using a 33 stations seismic network (Irpinia Seismic Network) with an aperture of about 150 km (chapter 4). We located 196 crustal earthquakes (depth < 20 km) with magnitude range 1.1 < Ml < 2.7. A subset of these locations were compared with accurate locations retrieved by a manual location procedure based on the use of a double difference technique. In both cases results indicate good agreement with manual locations. Moreover, the waveform stacking location method results noise robust and performs better than classical location methods based on the automatic picking of the P and S waves first arrivals.