Refine
Has Fulltext
- yes (13349) (remove)
Year of publication
Document Type
- Article (4010)
- Postprint (3294)
- Doctoral Thesis (2537)
- Monograph/Edited Volume (971)
- Review (558)
- Part of Periodical (492)
- Preprint (446)
- Master's Thesis (264)
- Conference Proceeding (245)
- Working Paper (245)
Language
- German (7057)
- English (5992)
- Spanish (80)
- French (75)
- Multiple languages (62)
- Russian (62)
- Hebrew (9)
- Italian (6)
- Portuguese (2)
- Hungarian (1)
Keywords
- Germany (118)
- Deutschland (106)
- climate change (79)
- Sprachtherapie (77)
- Patholinguistik (73)
- patholinguistics (73)
- Logopädie (72)
- Zeitschrift (71)
- Nachhaltigkeit (61)
- European Union (59)
Institute
- Extern (1382)
- MenschenRechtsZentrum (943)
- Institut für Physik und Astronomie (714)
- Institut für Biochemie und Biologie (709)
- Wirtschaftswissenschaften (583)
- Institut für Chemie (556)
- Institut für Mathematik (519)
- Institut für Romanistik (514)
- Institut für Geowissenschaften (509)
- Mathematisch-Naturwissenschaftliche Fakultät (489)
In diesem Beitrag werden das Konzept der „Virtuellen Runden Tische“ (ViRuTi) sowie Ergebnisse ihrer Pilotierung und Perspektiven für die Implementierung vorgestellt. Dabei geht es um die ressourcenfreundliche, digitale Umsetzung und niederschwellige Durchführung der ViRuTi. Inklusive Bestrebungen sind fest mit der Notwendigkeit interdisziplinärer Fallbesprechungen verknüpft. Akteure aus Kita, Schule und Gesundheitswesen können mit Bezugspersonen des betreffenden Kindes gemeinsam am runden Tisch Perspektiven austauschen und Entscheidungen treffen, bspw. zur Einleitung und Evaluierung von Sprachförder- oder -therapiemaßnahmen. Eine durch ein Konzept vorgegebene Struktur erleichtert den Austausch und die Fokussierung der Beteiligten auf die Ressourcen und Bedürfnisse des Kindes. Außerdem ist dieser interprofessionelle bzw. transdisziplinäre Austausch auch digital möglich.
Business processes are instrumental to manage work in organisations. To study the interdependencies between business processes, Business Process Architectures have been introduced. These express trigger and message ow relations between business processes. When we investigate real world Business Process Architectures, we find complex interdependencies, involving multiple process instances. These aspects have not been studied in detail so far, especially concerning correctness properties. In this paper, we propose a modular transformation of BPAs to open nets for the analysis of behavior involving multiple business processes with multiplicities. For this purpose we introduce intermediary nets to portray semantics of multiplicity specifications. We evaluate our approach on a use case from the public sector.
Business Process Management has become an integral part of modern organizations in the private and public sector for improving their operations. In the course of Business Process Management efforts, companies and organizations assemble large process model repositories with many hundreds and thousands of business process models bearing a large amount of information. With the advent of large business process model collections, new challenges arise as structuring and managing a large amount of process models, their maintenance, and their quality assurance.
This is covered by business process architectures that have been introduced for organizing and structuring business process model collections. A variety of business process architecture approaches have been proposed that align business processes along aspects of interest, e. g., goals, functions, or objects. They provide a high level categorization of single processes ignoring their interdependencies, thus hiding valuable information. The production of goods or the delivery of services are often realized by a complex system of interdependent business processes. Hence, taking a holistic view at business processes interdependencies becomes a major necessity to organize, analyze, and assess the impact of their re-/design. Visualizing business processes interdependencies reveals hidden and implicit information from a process model collection.
In this thesis, we present a novel Business Process Architecture approach for representing and analyzing business process interdependencies on an abstract level. We propose a formal definition of our Business Process Architecture approach, design correctness criteria, and develop analysis techniques for assessing their quality. We describe a methodology for applying our Business Process Architecture approach top-down and bottom-up. This includes techniques for Business Process Architecture extraction from, and decomposition to process models while considering consistency issues between business process architecture and process model level. Using our extraction algorithm, we present a novel technique to identify and visualize data interdependencies in Business Process Data Architectures. Our Business Process Architecture approach provides business process experts,managers, and other users of a process model collection with an overview that allows reasoning about a large set of process models,
understanding, and analyzing their interdependencies in a facilitated way. In this regard we evaluated our Business Process Architecture approach in an experiment and provide implementations of selected techniques.
Inhalt I. Einführung: Marktstruktur und Marktergebnisse II. Die Ausgestaltung der deutschen Rundfunkordnung durch dasBundesverfassungsgericht III. Gutseigenschaften und Marktbesonderheiten 1. Totales Marktversagen infolge öffentlicher Güter? 2. Externe Effekte des Rundfunkkonsums? 3. Rundfunk als meritorisches Gut? 4. Intransitive Präferenzen beim Rundfunkkonsum? 5. Asymmetrische Informationen im Rundfunkbereich? 6. Zwischenergebnis IV. Finanzierungsalternativen 1. Gebührenfinanzierung 2. Werbefinanzierung 3. Pay-TV 4. Zwischenergebnis V. Reformvorschläge zur deutschen Rundfunkordnung 1. Neubestimmung des öffentlich-rechtlichen Funktionsauftrages? 2. Finanzierung des öffentlich-rechtlichen Rundfunks durch die privaten Veranstalter? 3. Verzicht auf den öffentlich-rechtlichen Rundfunk? VI. Resümee
Do economists matter?
(2005)
Inhalt 1 Einleitung 2 Angebot an wettbewerbspolitischen Leitbildern 2.1 Ziele der Wissenschaftler 2.2 Bedeutung wettbewerbspolitischer Leitbilder 2.2.1 Ordoliberalismus 2.2.2 Workability-Konzepte 2.2.3 Kantzenbachs Leitbild der optimalen Wettbewerbsintensität 2.2.4 Hoppmanns Leitbild der Wettbewerbsfreiheit 2.2.5 Chicago School 3 Nachfrage nach wettbewerbspolitischen Leitbildern 3.1 Unterschiedliche Rollen der Politiker 3.2 Politiker und Ausrichtung der Wettbewerbspolitik 3.3 Wettbewerbspolitische Leitbilder und US-amerikanische Antitrustpolitik 4 Einfluss wettbewerbspolitischer Leitbilder auf die europäische Fusionskontroller 4.1 Deutsche Grundlagen 4.2 Materiell-rechtliche-Regelungen der FKVO 4.3 Einflüsse der wettbewerbspolitischen Leitbilder 4.4 Positionen der Interessengruppen 5 Fazit
Inhalt 1 Einleitung 2 Die Ziele des EnWG 2005 3 Die wichtigsten Neuregelungen des EnWG 2005 3.1 Neuregelungen zwecks Förderung des Wettbewerbs 3.1.1 Netzzugang 3.1.2 Netzentgelte 3.1.3 Unbundling 3.1.4 Stromkennzeichnung 3.2 Neuregelungen im Interesse der Versorgungssicherheit 4 Auswirkungen der Neuregelungen auf die Ziele des EnWG 2005 4.1 Preisgünstigkeit 4.2 Versorgungssicherheit 4.3 Umweltverträglichkeit 4.4 Energieeffizienz und Verbraucherfreundlichkeit 5 Fazit
Im August 2007 verstarb Erich Hoppmann. Die Wettbewerbsökonomik hat ihm außerordentlich viel zu verdanken. Besondere Bekanntheit erlangte seine Kontroverse mit Erhard Kantzenbach über das adäquate Leitbild der Wettbewerbspolitik. Hoppmanns Leitbild der Wettbewerbsfreiheit entstand ab 1966 vornehmlich als Reaktion auf Kantzenbachs Leitbild der optimalen Wettbewerbsintensität. Hoppmanns Leitbild wandte sich aber auch gegen bestimmte Workability-Konzepte, ferner gegen die mit dem neoklassischen Modell der vollkommenen Konkurrenz verbundenen Gleichgewichtsvorstellungen. Wegen der für die Entwicklung der Wettbewerbspolitik in Deutschland bedeutsamen Kontroverse zwischen Hoppmann und Kantzenbach wollen wir uns im Folgenden auf deren Leitbilder konzentrieren. Zunächst werden beide Konzeptionen rekapituliert und sodann gegenübergestellt. Schließlich wird nach ihrer Bedeutung für die Theorie und Praxis der Wettbewerbspolitik gefragt.
Inhalt 1 Ausgangslage 2 Regional- und industriepolitische Maßnahmen 2.1 Begriffliche Vorbemerkungen 2.2 Wichtige Maßnahmenbereiche 2.3 Brutto- und Nettotransfers 3 Auswirkungen 4 Regional- und industriepolitische Reformalternativen 4.1 Fortführung der Solidarpakts 4.2 Sonderwirtschaftszone Ost 4.3 Förderung der Infrastruktur 5 Fazit
Inhalt 1. Öffentliche Unternehmen als ordnungspolitisches Problem 2. Positive Analyse und Neue Politische Ökonomik 2.1. Empirische Befunde zur Effizienzalternativer Produktion 2.2. Bürokratietheoretische Erklärungsansätze undModellerweiterungen 3. Normative Analyse und aktuelle Entwicklungen 3.1. Ordnungspolitische Konsequenzen:Privatisierung staatlicher Monopole undwettbewerbliche Marktöffnung 3.2. Natürliche Monopole als Liberalisierungshindernisse? 3.3. Liberalisierungsprozesse in einzelnen Sektoren 3.4. Ausblick und Perspektiven öffentlicher Unternehmen
Inhalt 1 Globalisierung und Wettbewerb 1.1 Einzelne Aspekte 1.2 Unterschiedliche Bewertungen 2 Das MacDougall-Kemp-Modelldes institutionellen Wettbewerbs 2.1 Modellprämissen und -implikationen 2.2 Empirische Evidenz 3 Untersuchung weiterer Politikbereiche 3.1 Sozial- und Umweltpolitik 3.2 Wettbewerbspolitik 4 Mängel der betrachteten Ansätze 4.1 Transaktionskosten von Individuen und Unternehmen 4.2 Verhaltensweisen privater und politischer Akteure 5 Wirtschaftspolitische Konsequenzen
Inhalt 1 Gegenstand der Untersuchung 2 SV aus wirtschaftstheoretischer Sicht:(neoklassische) Umweltökonomik 3 SV aus wirtschaftspolitischer Sicht:(ordoliberale) ordnungspolitische Aspekte 4 SV aus empirischer Sicht 5 Realitätsbezogene Probleme und Lösungsansätze 6 Realitätsnähere Analyse der Effektivität, Effizienz undWettbewerbskonformität von SV 7 Realitätsnähere Analyse der ordnungspolitischen Aspekte 8 Kriterien erfolgreicher SV 9 Aktuelle Problematik: SV versus Emissionsrechtehandel
Background
Aim of the study was to find predictors of allocating patients after transcatheter aortic valve implantation (TAVI) to geriatric (GR) or cardiac rehabilitation (CR) and describe this new patient group based on a differentiated characterization.
Methods
From 10/2013 to 07/2015, 344 patients with an elective TAVI were consecutively enrolled in this prospective multicentric cohort study. Before intervention, sociodemographic parameters, echocardiographic data, comorbidities, 6-min walk distance (6MWD), quality of life and frailty (score indexing activities of daily living [ADL], cognition, nutrition and mobility) were documented. Out of these, predictors for assignment to CR or GR after TAVI were identified using a multivariable regression model.
Results
After TAVI, 249 patients (80.7 ± 5.1 years, 59.0% female) underwent CR (n = 198) or GR (n = 51). GR patients were older, less physically active and more often had a level of care, peripheral artery disease as well as a lower left ventricular ejection fraction. The groups also varied in 6MWD. Furthermore, individual components of frailty revealed prognostic impact: higher values in instrumental ADL reduced the probability for referral to GR (OR:0.49, p < 0.001), while an impaired mobility was positively associated with referral to GR (OR:3.97, p = 0.046). Clinical parameters like stroke (OR:0.19 of GR, p = 0.038) and the EuroSCORE (OR:1.04 of GR, p = 0.026) were also predictive.
Conclusion
Advanced age patients after TAVI referred to CR or GR differ in several parameters and seem to be different patient groups with specific needs, e.g. regarding activities of daily living and mobility. Thus, our data prove the eligibility of both CR and GR settings.
Background: Telerehabilitation can contribute to the maintenance of successful rehabilitation regardless of location and time. The aim of this study was to investigate a specific three-month interactive telerehabilitation routine regarding its effectiveness in assisting patients with physical functionality and with returning to work compared to typical aftercare.
Objective: The aim of the study was to investigate a specific three-month interactive telerehabilitation with regard to effectiveness in functioning and return to work compared to usual aftercare.
Methods: From August 2016 to December 2017, 111 patients (mean 54.9 years old; SD 6.8; 54.3% female) with hip or knee replacement were enrolled in the randomized controlled trial. At discharge from inpatient rehabilitation and after three months, their distance in the 6-minute walk test was assessed as the primary endpoint. Other functional parameters, including health related quality of life, pain, and time to return to work, were secondary endpoints.
Results: Patients in the intervention group performed telerehabilitation for an average of 55.0 minutes (SD 9.2) per week. Adherence was high, at over 75%, until the 7th week of the three-month intervention phase. Almost all the patients and therapists used the communication options. Both the intervention group (average difference 88.3 m; SD 57.7; P=.95) and the control group (average difference 79.6 m; SD 48.7; P=.95) increased their distance in the 6-minute-walk-test. Improvements in other functional parameters, as well as in quality of life and pain, were achieved in both groups. The higher proportion of working patients in the intervention group (64.6%; P=.01) versus the control group (46.2%) is of note.
Conclusions: The effect of the investigated telerehabilitation therapy in patients following knee or hip replacement was equivalent to the usual aftercare in terms of functional testing, quality of life, and pain. Since a significantly higher return-to-work rate could be achieved, this therapy might be a promising supplement to established aftercare.
Background
Total hip or knee replacement is one of the most frequently performed surgical procedures. Physical rehabilitation following total hip or knee replacement is an essential part of the therapy to improve functional outcomes and quality of life. After discharge from inpatient rehabilitation, a subsequent postoperative exercise therapy is needed to maintain functional mobility. Telerehabilitation may be a potential innovative treatment approach. We aim to investigate the superiority of an interactive telerehabilitation intervention for patients after total hip or knee replacement, in comparison to usual care, regarding physical performance, functional mobility, quality of life and pain.
Methods/design
This is an open, randomized controlled, multicenter superiority study with two prospective arms. One hundred and ten eligible and consenting participants with total knee or hip replacement will be recruited at admission to subsequent inpatient rehabilitation. After comprehensive, 3-week, inpatient rehabilitation, the intervention group performs a 3-month, interactive, home-based exercise training with a telerehabilitation system. For this purpose, the physiotherapist creates an individual training plan out of 38 different strength and balance exercises which were implemented in the system. Data about the quality and frequency of training are transmitted to the physiotherapist for further adjustment. Communication between patient and physiotherapist is possible with the system. The control group receives voluntary, usual aftercare programs. Baseline assessments are investigated after discharge from rehabilitation; final assessments 3 months later. The primary outcome is the difference in improvement between intervention and control group in 6-minute walk distance after 3 months. Secondary outcomes include differences in the Timed Up and Go Test, the Five-Times-Sit-to-Stand Test, the Stair Ascend Test, the Short-Form 36, the Western Ontario and McMaster Universities Osteoarthritis Index, the International Physical Activity Questionnaire, and postural control as well as gait and kinematic parameters of the lower limbs. Baseline-adjusted analysis of covariance models will be used to test for group differences in the primary and secondary endpoints.
Discussion
We expect the intervention group to benefit from the interactive, home-based exercise training in many respects represented by the study endpoints. If successful, this approach could be used to enhance the access to aftercare programs, especially in structurally weak areas.
Hintergrund
Für Patienten mit hochgradiger Aortenklappenstenose, die aufgrund ihres Alters oder ihrer Multimorbidität ein hohes Operationsrisiko tragen, konnte mit der kathetergestützten Aortenklappenkorrektur (transcatheter aortic valve implantation, TAVI) eine vielversprechende Alternative zum herzchirurgischen Eingriff etabliert werden. Explizite Daten zur multidisziplinären kardiologischen Rehabilitation nach TAVI liegen bislang nicht vor. Ziel vorliegender Arbeit war, den Effekt der kardiologischen Rehabilitation auf die körperliche Leistungsfähigkeit, den emotionalen Status, die Lebensqualität und die Gebrechlichkeit bei Patienten nach TAVI zu untersuchen sowie Prädiktoren für die Veränderung der körperlichen Leistungsfähigkeit und der Lebensqualität zu identifizieren.
Methodik
Zwischen 10/2013 und 07/2015 wurden 136 Patienten (80,6 ± 5,0 Jahre, 47,8 % Männer) in Anschlussheilbehandlung nach TAVI in drei kardiologischen Rehabilitationskliniken eingeschlossen. Zur Beurteilung des Effekts der kardiologischen Rehabilitation wurden jeweils zu Beginn und Ende der Rehabilitation der Frailty (Gebrechlichkeits)-Index (Score bestehend aus Barthel-Index, Instrumental Activities of Daily Living, Mini Mental State Exam, Mini Nutritional Assessment, Timed Up and Go und subjektiver Mobilitätsverschlechterung), die Lebensqualität im Short-Form 12 (SF-12) sowie die funktionale körperliche Leistungsfähigkeit im 6-Minuten Gehtest (6-minute walk test, 6MWT) und die maximale körperliche Leistungsfähigkeit in der Belastungs-Ergometrie erhoben. Zusätzlich wurden soziodemographische Daten (z. B. Alter und Geschlecht), Komorbiditäten (z. B. chronisch obstruktive Lungenerkrankung, koronare Herzkrankheit und Karzinom), kardiovaskuläre Risikofaktoren und die NYHA-Klasse dokumentiert. Prädiktoren für die Veränderung der körperlichen Leistungsfähigkeit und Lebensqualität wurden mit Kovarianzanalysen angepasst.
Ergebnisse
Die maximale Gehstrecke im 6MWT konnte um 56,3 ± 65,3 m (p < 0,001) und die maximale körperliche Leistungsfähigkeit in der Belastungs-Ergometrie um 8,0 ± 14,9 Watt (p < 0001) gesteigert werden. Weiterhin konnte eine Verbesserung im SF-12 sowohl in der körperlichen Summenskala um 2,5 ± 8,7 Punkte (p = 0,001) als auch in der psychischen Summenskala um 3,4 ± 10,2 Punkte (p = 0,003) erreicht werden. In der multivariaten Analyse waren ein höheres Alter und eine höhere Bildung signifikant mit einer geringeren Zunahme im 6MWT assoziiert, währenddessen eine bessere kognitive Leistungsfähigkeit und Adipositas einen positiven prädiktiven Wert aufwiesen. Eine höhere Selbstständigkeit und ein besserer Ernährungsstatus beeinflussten die Veränderung in der körperlichen Summenskala des SF-12 positiv, währenddessen eine bessere kognitive Leistungsfähigkeit einen Prädiktor für eine geringere Veränderung darstellte. Des Weiteren hatten die jeweiligen Ausgangswerte der körperlichen und psychischen Summenskala im SF-12 einen inversen Einfluss auf die Veränderungen in der gleichen Skala.
Schlussfolgerung
Eine multidisziplinäre kardiologische Rehabilitation kann sowohl die körperliche Leistungs-fähigkeit und Lebensqualität verbessern als auch die Gebrechlichkeit von Patienten nach kathetergestützter Aortenklappenkorrektur verringern. Daraus resultierend gilt es, spezifische Assessments für die kardiologische Rehabilitation zu entwickeln. Weiterhin ist es notwendig, individualisierte Therapieprogramme mit besonderem Augenmerk auf kognitive Funktionen und Ernährung zu initiieren, um die Selbstständigkeit hochbetagter Patienten zu erhalten bzw. wiederherzustellen und um die Pflegebedürftigkeit der Patienten hinauszuzögern.
Der Beitrag stellt das Konzept und die Durchführung eines Seminars zum Thema „Sprachliche Heterogenität“ innerhalb des Moduls „Grundlagen der Inklusionspädagogik“ vor, welches im Rahmen der Qualitätsoffensive Lehrerbildung an der Universität Potsdam (PSI Potsdam) durch den Arbeitsbereich Deutsch als Fremd- und Zweitsprache entwickelt wurde. Das Seminar begleitet eine außerunterrichtliche Praxiserfahrung im Bachelorstudium für Lehramtsstudierende aller Fächer und ist in ein Seminar sowie eine anschließende Blockphase nach dem eigentlichen Praktikum gegliedert. Dargestellt werden hier die inhaltliche sowie theoretische Verortung des Konzepts, welches auf eine Sensibilisierung und (Selbst-)Reflexion der angehenden Lehrkräfte in Bezug auf Sprache und Inklusion zielt sowie deren forschende Haltung durch die eigenständige Bearbeitung einer Beobachtungsaufgabe weiterentwickeln will. Aufbau, Verortung, methodische Ausgestaltung und tatsächliche Durchführung des Seminars werden erläutert und kritisch reflektiert.
Due to the high concentration of people and infrastructures in European cities, the possible impacts of climate change are particularly high (cities' social, economic and technical vulnerabilities). Adaptation measures to reduce the sensitivity of a city to climate risks are therefore of particular importance. Nevertheless, it is also common to develop compact and dense urban areas to reduce urban sprawl. Urban infill development and sustainable spatial climate policies are thus in apparent conflict with each other. This article examines how German cities deal with the tensions between these two policy fields. Using six case studies, a new heuristic analysis method is applied. This study identifies three key governance aspects that are essential for promoting the joint implementation: instruments, organisation and interaction. Based on our case studies, we conclude that successful implementation can only be achieved through integrative governance including all three domains.
Language developers who design domain-specific languages or new language features need a way to make fast changes to language definitions. Those fast changes require immediate feedback. Also, it should be possible to parse the developed languages quickly to handle extensive sets of code.
Parsing expression grammars provides an easy to understand method for language definitions. Packrat parsing is a method to parse grammars of this kind, but this method is unable to handle left-recursion properly. Existing solutions either partially rewrite left-recursive rules and partly forbid them, or use complex extensions to packrat parsing that are hard to understand and cost-intensive. We investigated methods to make parsing as fast as possible, using easy to follow algorithms while not losing the ability to make fast changes to grammars.
We focused our efforts on two approaches.
One is to start from an existing technique for limited left-recursion rewriting and enhance it to work for general left-recursive grammars. The second approach is to design a grammar compilation process to find left-recursion before parsing, and in this way, reduce computational costs wherever possible and generate ready to use parser classes.
Rewriting parsing expression grammars is a task that, if done in a general way, unveils a large number of cases such that any rewriting algorithm surpasses the complexity of other left-recursive parsing algorithms. Lookahead operators introduce this complexity. However, most languages have only little portions that are left-recursive and in virtually all cases, have no indirect or hidden left-recursion. This means that the distinction of left-recursive parts of grammars from components that are non-left-recursive holds great improvement potential for existing parsers.
In this report, we list all the required steps for grammar rewriting to handle left-recursion, including grammar analysis, grammar rewriting itself, and syntax tree restructuring. Also, we describe the implementation of a parsing expression grammar framework in Squeak/Smalltalk and the possible interactions with the already existing parser Ohm/S. We quantitatively benchmarked this framework directing our focus on parsing time and the ability to use it in a live programming context. Compared with Ohm, we achieved massive parsing time improvements while preserving the ability to use our parser it as a live programming tool.
The work is essential because, for one, we outlined the difficulties and complexity that come with grammar rewriting. Also, we removed the existing limitations that came with left-recursion by eliminating them before parsing.
Die Reform des Gemeinsamen Europäischen Asylsystems (GEAS) ist eine der größten Herausforderungen und eine der drängendsten Aufgaben der EU und ihrer Mitgliedstaaten. Dabei stellt die Frage der „gerechten Lastenteilung“ in der Asyl- und Migrationspolitik den Zusammenhalt der EU auf eine Zerreißprobe. Seit den gescheiterten Verhandlungen über die GEAS-Reform 2016/2017 versuchen die Mitgliedstaaten, einen Ausgleich zwischen den Grundsätzen der Solidarität und Verantwortlichkeit zu finden, wie es Art. 80 AEUV für das GEAS vorgibt. Je nach Interessenlage verbirgt sich dahinter aber ein sehr unterschiedliches Verständnis.
Diese Arbeit untersucht die Reformbemühungen beim GEAS nach Vorlage der Kommissionsvorschläge im September 2020 und beleuchtet die divergierenden Interessenlagen der Mitgliedstaaten hinsichtlich Aufnahme und Verteilung von Geflüchteten. Ziel der Arbeit ist, eine Aussage über die Erfolgsaussichten einer Einigung über die Grundsätze der Solidarität und Verantwortung zu treffen. Dazu werden zunächst die Verpflichtungen im Asylrecht basierend auf internationalen Übereinkommen wie der Genfer Flüchtlingskonvention dargestellt. An-schließend werden GEAS und Dublin-System, das dem Ersteinreisestaat die Zuständigkeit für die Asylverfahren zuschreibt, und die Ursachen für sein Scheitern analysiert.
Diese Verantwortungsteilung, die zu einer überproportionalen Belastung der Mitgliedstaaten im Süden führt, ist Kristallisationspunkt für Konflikte, gegenseitigen Vorwürfe und Misstrau-en zwischen den Mitgliedstaaten. Infolge einer tatsächlichen Überlastung und teilweise selbst verschuldeten Unmöglichkeit, die GEAS-Verpflichtungen zu erfüllen, rufen die Südstaaten nach Unterstützung aus dem Norden und betreiben teilweise sogar eine Politik des Laissez-Passer. Durch teilweise katastrophale Zustände bei Verfahren, Unterbringung und Versorgung der Geflüchteten entstehen Rückführungshindernisse und Druck auf die Zielstaaten, mehr Solidarität zu leisten.
Ausgehend von diesem Befund wird der Bedeutungsgehalt des Solidaritätsprinzips in Art. 80 AEUV in normativer und deskriptiver Hinsicht untersucht. Normativ handelt es sich dabei um eine abstrakte Rechtspflicht zur gegenseitigen Unterstützung, deren Ausgestaltung im politischen Ermessen der Mitgliedstaaten liegt. Deskriptiv kann unter „Solidarität“ der Zweck verstanden werden, dass die Verwirklichung individueller Interessen einer kollektiven Anstrengung bedarf, die wiederum das Gemeinwohl fördert und somit im Interesse aller liegt. Dem folgend müssten alle Mitgliedstaaten ein Interesse an der Bewältigung der Herausforderungen der Migration nach Europa haben.
Die Interessen der Mitgliedstaten deuten aber auf etwas anderes hin. Die durch die Ankünfte von Schutzsuchenden aus dem Süden stark belasteten Mittelmeeranrainer wie Griechenland und Italien fordern eine Abkehr vom Dublin-System. Die migrationskritischen Visegrád-Staaten verweigern im Grunde jede Unterstützung bei der Aufnahme und berufen sich darauf, dass sie ihre rechtlichen Verpflichtungen erfüllen. Staaten, die lange Zeit eine liberale Migrationspolitik verfolgten und beliebte Zielländer waren wie Schweden, ringen nach der Migrationskrise 2015/2016 mit sich auf der Suche nach einem migrationspolitischen Kurs, der rechts-populistische Kräfte nicht noch weiter erstarken lässt. Auch die Hauptzielländer Deutschland und Frankreich versuchen den jeweiligen innenpolitischen Diskursen entsprechend, die Sekundärmigration zu verhindern und wollen auf unterschiedliche Weise die Außengrenzstaaten unterstützen, wobei Deutschland die Umverteilung aller unterstützt.
Die im September 2020 vorgelegten Vorschläge der Kommission versuchen, den unterschiedlichen Interessen Rechnung zu tragen. Durch die Schaffung eines Grenzverfahrens soll die Anzahl der in die EU einreisenden und zu verteilenden Geflüchteten reduziert werden. Durch Änderung der Dublin-Kriterien soll die Zuständigkeit der potentiellen Zielländer erweitert werden, um die Südländer zu entlasten und der Sekundärmigration entgegenzuwirken. Mit der gleichen Zielrichtung soll auf Grundlage eines neuen Solidaritätsmechanismus eine Umverteilung unbegleiteter Minderjähriger und aus Seenot Geretteter erfolgen. In Krisenzeiten soll daraus eine generelle Umverteilung aller Schutzsuchenden erwachsen, wobei Solidarität weiterhin auf verschiedene Art und Weise geleistet werden können soll.
Angesichts der Verhandlungen während der deutschen EU-Ratspräsidentschaft und des er-reichten Zwischenergebnisses besteht Skepsis, dass die Mitgliedstaaten sich bald auf eine GEAS-Reform einigen werden. Dazu liegen die Interessen der Mitgliedstaaten auch hinsichtlich der Solidarität zu weit auseinander. Zudem stellt sich die in Hinblick auf die europäische Integration und die Zukunft der EU besorgniserregende Frage, worin das im Interesse aller liegende Gemeinwohl in der Asylpolitik liegen soll, das die gemeinsame Kraftanstrengung zu einem individuellen Interesse jedes Einzelnen werden lässt. Denn anders als bei der Schaffung des Schengen-Raums als Raum ohne Binnengrenzen sind Wohlstandsgewinne von der Aufnahme Geflüchteter vorerst nicht zu erwarten.
In many biological and environmental applications spatially resolved sensing of molecular oxygen is desirable. A powerful tool for distributed measurements is optical time domain reflectometry (OTDR) which is often used in the field of telecommunications. We combine this technique with a novel optical oxygen sensor dye, triangular-[4] phenylene (TP), immobilized in a polymer matrix. The TP luminescence decay time is 86 ns. The short decay time of the sensor dye is suitable to achieve a spatial resolution of some meters. In this paper we present the development and characterization of a reflectometer in the UV range of the electromagnetic spectrum as well as optical oxygen sensing with different fiber arrangements.
Prognosen
(2012)
The shape of a defense-growth trade-off governs seasonal trait dynamics in natural phytoplankton
(2020)
Theory predicts that trade-offs, quantifying costs of functional trait adjustments, crucially affect community trait adaptation to altered environmental conditions, but empirical verification is scarce. We evaluated trait dynamics (antipredator defense, maximum growth rate, and phosphate affinity) of a lake phytoplankton community in a seasonally changing environment, using literature trait data and 21 years of species-resolved high-frequency biomass measurements. The trait data indicated a concave defense-growth trade-off, promoting fast-growing species with intermediate defense. With seasonally increasing grazing pressure, the community shifted toward higher defense levels at the cost of lower growth rates along the trade-off curve, while phosphate affinity explained some deviations from it. We discuss how low fitness differences of species, inferred from model simulations, in concert with stabilizing mechanisms, e.g., arising from further trait dimensions, may lead to the observed phytoplankton diversity. In conclusion, quantifying trade-offs is key for predictions of community trait adaptation and biodiversity under environmental change.
It is well-known that prey species often face trade-offs between defense against predation and competitiveness, enabling predator-mediated coexistence. However, we lack an understanding of how the large variety of different defense traits with different competition costs affects coexistence and population dynamics. Our study focusses on two general defense mechanisms, that is, pre-attack (e.g., camouflage) and post-attack defenses (e.g., weaponry) that act at different phases of the predator—prey interaction. We consider a food web model with one predator, two prey types and one resource. One prey type is undefended, while the other one is pre-or post-attack defended paying costs either by a higher half-saturation constant for resource uptake or a lower maximum growth rate. We show that post-attack defenses promote prey coexistence and stabilize the population dynamics more strongly than pre-attack defenses by interfering with the predator’s functional response: Because the predator spends time handling “noncrackable” prey, the undefended prey is indirectly
facilitated. A high half-saturation constant as defense costs promotes coexistence more and stabilizes the dynamics less than a low maximum growth rate. The former imposes high costs at low resource concentrations but allows for temporally high growth rates at predator-induced resource peaks preventing the extinction of the defended prey. We evaluate the effects of the different defense mechanisms and costs on coexistence under different enrichment levels in order to vary the importance of bottom-up and top-down control of the prey community.
Predation drives coexistence, evolution and population dynamics of species in food webs, and has strong impacts on related ecosystem functions (e.g. primary production). The effect of predation on these processes largely depends on the trade-offs between functional traits in the predator and prey community. Trade-offs between defence against predation and competitive ability, for example, allow for prey speciation and predator-mediated coexistence of prey species with different strategies (defended or competitive), which may stabilize the overall food web dynamics. While the importance of such trade-offs for coexistence is widely known, we lack an understanding and the empirical evidence of how the variety of differently shaped trade-offs at multiple trophic levels affect biodiversity, trait adaptation and biomass dynamics in food webs. Such mechanistic understanding is crucial for predictions and management decisions that aim to maintain biodiversity and the capability of communities to adapt to environmental change ensuring their persistence.
In this dissertation, after a general introduction to predator-prey interactions and tradeoffs, I first focus on trade-offs in the prey between qualitatively different types of defence (e.g. camouflage or escape behaviour) and their costs. I show that these different types lead to different patterns of predator-mediated coexistence and population dynamics, by using a simple predator-prey model. In a second step, I elaborate quantitative aspects of trade-offs and demonstrates that the shape of the trade-off curve in combination with trait-fitness relationships strongly affects competition among different prey types: Either specialized species with extreme trait combinations (undefended or completely defended) coexist, or a species with an intermediate defence level dominates. The developed theory on trade-off shapes and coexistence is kept general, allowing for applications apart from defence-competitiveness trade-offs. Thirdly, I tested the theory on trade-off shapes on a long-term field data set of phytoplankton from Lake Constance. The measured concave trade-off between defence and growth governs seasonal trait changes of phytoplankton in response to an altering grazing pressure by zooplankton, and affects the maintenance of trait variation in the community. In a fourth step, I analyse the interplay of different tradeoffs at multiple trophic levels with plankton data of Lake Constance and a corresponding tritrophic food web model. The results show that the trait and biomass dynamics of the different three trophic levels are interrelated in a trophic biomass-trait cascade, leading to unintuitive patterns of trait changes that are reversed in comparison to predictions from bitrophic systems. Finally, in the general discussion, I extract main ideas on trade-offs in multitrophic systems, develop a graphical theory on trade-off-based coexistence, discuss the interplay of intra- and interspecific trade-offs, and end with a management-oriented view on the results of the dissertation, describing how food webs may respond to future global changes, given their trade-offs.
Rezensiertes Werk: Anklam, Ewa: Wissen nach Augenmaß : militärische Beobachtung und Berichterstattung im Siebenjährigen Krieg / Ewa Anklam. - Münster : Lit-Verl., 2007. - 312 S. - (Herrschaft und soziale Systeme in der frühen Neuzeit ; 10) Zugl.: Braunschweig, Techn. Univ., Diss., 2006: Anklam, Ewa: "Wissen nach Augenmaaß" ISBN 978-3-8258-0585-2
When top sports performers fail or “choke” under pressure, everyone asks: why? Research has identified a number of conditions (e.g. an audience) that elicit choking and that moderate (e.g. trait-anxiety) pressure – performance relation. Furthermore, mediating processes have been investigated. For example, explicit monitoring theories link performance failure under psychological stress to an increase in attention paid to a skill and its step-by-step execution (Beilock & Carr, 2001). Many studies have provided support for these ideas. However, so far only overt performance measures have been investigated which do not allow more thorough analyses of processes or performance strategies. But also a theoretical framework has been missing, that could (a) explain the effects of explicit monitoring on skill execution and that (b) makes predictions as to what is being monitored during execution. Consequently in this study, the nodalpoint hypothesis of motor control (Hossner & Ehrlenspiel, 2006) was taken to predict movement changes on three levels of analysis at certain “nodalpoints” within the movement sequence. Performance in two different laboratory tasks was assessed with respect to overt performance (the observable result, for example accuracy in the target), covert performance (description of movement execution, for example the acceleration of body segements) and task exploitation (the utilization of task properties such as covariation). A fake competition (see Beilock & Carr, 2002) was used to invoke pressure. In study 1 a ball bouncing task in a virtual-reality set-up was chosen. Previous studies (de Rugy, Wei, Müller, & Sternad, 2003) have shown that learners are usually able to “passively” exploit the dynamical stability of the system. According to explicit monitoring theories, choking should be expected either if the task itself evokes an “active control” (Experiment 1) or if learners are provided with explicit instructions (Experiment 2). In both experiments, participants first went through a practice phase on day 1. On day 2, following the Baseline Test participants were divided into a High-Stress or No-Stress Group for the final Performance Test. The High-Stress Group entered a fake competition. Overt performance was measured by the Absolute Error (AE) of ball amplitudes from target height; covert performance was measured by Period Modulation between successive hits and task exploitation was measured by Acceleration (AC) at ball-racket impact and Covariation (COV) of impact parameters. To evoke active control in Exp. 1 (N=20), perturbations to the ball flight were introduced. In Exp. 2 (N=39) half of the participants received explicit skill-focused instructions during learning. For overt performance, results generally show an interaction between Stress Group and Test, with better performance (i. e. lower AE) for the High-Stress group in the final Performance Test. This effect is also independent of the Instructions that participants had received during learning (Exp. 2). Similar effects were found for COV but not for AC. In study 2 a visuomotor tracking task in which participants had to pursuit a target cross that was moving on an invisible curve. This curve consisted of 3 segments of 6 turning points sequentially ordered around the x-axis. Participants learned two short movement sequences which were then concatenated to form a single sequence. It was expected that under pressure, this sequence should “fall apart” at the point of concatenation. Overt Performance was assessed by the Root Mean Square Error between target and pursuit cross as well as the Absolute Error at the turning points, covert performance was measured by the Latency from target to pursuit turning and task exploitation was measured by the temporal covariation between successive intervals between turning points. Experiment 3 (intraindividual variation) as well as Experiment 4 (interindividual variation) show performance enhancement in the pressure situation on the overt level with matching results on covert and task exploitation level. Thus, contrary to previous studies, no choking under pressure was found in any of the experiments. This may be interpreted as a failure in the experimental manipulation. But certainly also important characteristics of the task are highlighted. Choking should occur in tasks where performers do not have the time to use action or thought control strategies, that are more relevant to their “self” and that are discrete in nature.
Under the influence of orientation towards European integration, Georgia has introduced a variety of new laws with the apparent aim to decentralize legislative and executive powers. This paper shows that the Georgian efforts of decentralization remain superficial, mainly because they are not backed by additional fiscal competences at the municipality level. Following an initial description of the pre-reform situation as of 2006 and based upon a detailed account of the structural changes since 2007, the author gives insight into the conflicts which arise from the lack of institutional congruency. Neither the extraordinary status of the capital Tbilisi nor the seeming autonomy of the Rebublic of Adjara are likely to sway the renegade territories of Abchasia and Ossetia towards a reintegration under Georgian centralized rule as it continues to exist today. Likewise, the success of the proposed and discussed fiscal equalization scheme depends on whether the President and his ruling party are willing to delegate powers to the subodinate jurisdictions.
Inhalt: Empirie: Anfänge der Strukturpolitik: der Aufbau des Europäischen Sozialfonds Beginn der Regionalpolitik und der Europäische Fonds für regionale Entwicklung Strukturförderung im ländlichen Raum – die Abteilung Ausrichtung des Agrarfonds Neue Probleme und neue Ansätze: Die 1980er Jahre Einheitliche Europäische Akte und grundlegende Reform der Strukturpolitik ab 1986 Zwischen den Reformen: Die 1990er Jahre Die EU-Strukturfonds heute Theorie: Risikoausgleich bei Migration und interregionalen Transfers Risikoausgleich in der Europäischen Union? – Eine empirische Untersuchung Spillover-Effekte als Problem – matching grants als Lösung? Das Problem der dritten Ebene: Verdrängung nationaler Zuschüsse durch EU-Mittel Externe Effekte durch Wanderung von Arbeitnehmern Der flypaper-Effekt als Besonderheit öffentlicher Zuschüsse "Dezentralisierte" Föderation
Die internationale Staatengemeinschaft steht Sezessionsbestrebungen zur Aufspaltung bestehender Staaten gewöhnlich ablehnend gegenüber. Gleichzeitig wendet sie in vielen Ländern Instrumente der Entwicklungspolitik an und greift so auch in den dortigen politischen Prozess ein. Untersucht wird, inwiefern Entwicklungspolitik so gestaltet werden kann, dass sie nicht, quasi als Nebenwirkung, einer Sezessionsbewegung zum Durchbruch verhilft. Betrachtet wird dabei neben der gezielten Förderung wirtschaftlichen Wachstums auch das Instrument der Dezentralisierung, das oft als Mittel zur „Beruhigung“ separatistischer Bestrebungen vorgeschlagen wird. Zuvor jedoch wird aufgewiesen, dass eine Politik, die Sezessionen verhindern will, zumindest in vielen Fällen auch moralphilosophisch schlüssig begründet werden kann. Den Abschluss der Arbeit bilden drei Fallstudien zu Sezessionen auf dem Gebiet der ehemaligen Sowjetunion.
Nested application conditions generalise the well-known negative application conditions and are important for several application domains. In this paper, we present Local Church-Rosser, Parallelism, Concurrency and Amalgamation Theorems for rules with nested application conditions in the framework of M-adhesive categories, where M-adhesive categories are slightly more general than weak adhesive high-level replacement categories. Most of the proofs are based on the corresponding statements for rules without application conditions and two shift lemmas stating that nested application conditions can be shifted over morphisms and rules.
Challenging Khmer citizenship : minorities, the state, and the international community in Cambodia
(2013)
The idea of a distinctly ‘liberal’ form of multiculturalism has emerged in the theory and practice of Western democracies and the international community has become actively engaged in its global dissemination via international norms and organizations. This thesis investigates the internationalization of minority rights, by exploring state-minority relations in Cambodia, in light of Will Kymlicka’s theory of multicultural citizenship. Based on extensive empirical research, the analysis explores the situation and aspirations of Cambodia’s ethnic Vietnamese, highland peoples, Muslim Cham, ethnic Chinese and Lao and the relationships between these groups and the state. All Cambodian regimes since independence have defined citizenship with reference to the ethnicity of the Khmer majority and have - often violently - enforced this conception through the assimilation of highland peoples and the Cham and the exclusion of ethnic Vietnamese and Chinese. Cambodia’s current constitution, too, defines citizenship ethnically. State-sponsored Khmerization systematically privileges members of the majority culture and marginalizes minority members politically, economically and socially. The thesis investigates various international initiatives aimed at promoting application of minority rights norms in Cambodia. It demonstrates that these initiatives have largely failed to accomplish a greater degree of compliance with international norms in practice. This failure can be explained by a number of factors, among them Cambodia’s neo-patrimonial political system, the geo-political fears of a ‘minoritized’ Khmer majority, the absence of effective regional security institutions, the lack of minority access to political decision-making, the significant differences between international and Cambodian conceptions of modern statehood and citizenship and the emergence of China as Cambodia’s most important bilateral donor and investor. Based on this analysis, the dissertation develops recommendations for a sequenced approach to minority rights promotion, with pragmatic, less ambitious shorter-term measures that work progressively towards achievement of international norms in the longer-term.
Das folgende Forschungsprojekt beschäftigt sich mit metakognitiven und motivationalen Fähigkeiten als Teilbereiche des selbstgesteuerten Lernens. Es untersucht den Nutzen und die Grenzen von Lerntagebüchern, die zugeschnitten wurden auf Grundschülerinnen und Grundschüler mit Migrationshintergrund. Das Ziel der Studie war es herauszufinden, ob und wie selbststeurungsbezogene Lernprozesse durch den Einsatz von Lerntagebüchern gemessen und verändert werden können. Hierzu führten 28 Grundschülerinnen und Grundschüler 14 Wochen lang während des Unterrichts ein halbstandardisiertes Lerntagebuch in Anlehnung an Wohland/Spinath (2004). Zur Messung von Veränderungen in metakognitiven und motivationalen Fähigkeiten füllten 43 Schülerinnen und Schüler zweier Experimentalgruppen und einer Kontrollgruppe vor und nach der Lerntagebuch-Intervention standardisierte Fragebögen aus. Weiterhin wurden die 28 Lerntagebücher der Experimentalgruppen inhalts- und prozessanalytisch ausgewertet. Außerdem wurden Interviews mit den Lehrkräften über ihre Unterrichtspraxis geführt und einige Schülerinnen und Schüler zu ihrer Wahrnehmung der Lerntagebucharbeit befragt. Die Ergebnisse der Analyse der Lerntagebuchdaten zeigen, dass die 28 Schülerinnen und Schüler mit Migrationshintergrund erfolgreich ihren Lernprozess bei der Bearbeitung einer Aufgabe verbalisierten. Sie haben weiterhin erfolgreich Vorhersagen über ihre Vorgehensweisen zur Lösung einer Aufgabe getroffen. Die Lerntagebücher unterstützten sie darin, ihre metakognitiven Erfahrungen (Efklides/Petkaki 2005) zu kalibrieren (Desoete/Roeyers 2006). Den Lernenden ist es gelungen, ihre Repräsentationen über das Lösen einer Aufgabe aufeinander (fein-) abzustimmen, während sie daran arbeiteten. Mit Hilfe von Zeitreihenanalysen konnte gezeigt werden, dass die Schülerinnen und Schüler die Fragen im Lerntagebuch gegen Ende der Intervention oberflächlicher beantworteten und die Lerntagebücher tendenziell weniger häufig ausgefüllt wurden (negative Trends). Eine Erklärung für die geringere Antworthäufigkeit, die zu negativen Verlaufskurven über die Zeit führten, könnte sein, dass die Instruktionsdichte durch den Mix an offenen und geschlossenen Fragen im Lerntagebuch zu hoch war. Die Lernenden haben sich möglicherweise so an die Fragen bzw. Antwortformate gewöhnt, dass die Motivation, in das Lerntagebuch zu schreiben, geringer wurde.
The central gas in half of all galaxy clusters shows short cooling times. Assuming unimpeded cooling, this should lead to high star formation and mass cooling rates, which are not observed. Instead, it is believed that condensing gas is accreted by the central black hole that powers an active galactic nuclei jet, which heats the cluster. The detailed heating mechanism remains uncertain. A promising mechanism invokes cosmic ray protons that scatter on self-generated magnetic fluctuations, i.e. Alfvén waves. Continuous damping of Alfvén waves provides heat to the intracluster medium. Previous work has found steady state solutions for a large sample of clusters where cooling is balanced by Alfvénic wave heating. To verify modeling assumptions, we set out to study cosmic ray injection in three-dimensional magnetohydrodynamical simulations of jet feedback in an idealized cluster with the moving-mesh code arepo. We analyze the interaction of jet-inflated bubbles with the turbulent magnetized intracluster medium.
Furthermore, jet dynamics and heating are closely linked to the largely unconstrained jet composition. Interactions of electrons with photons of the cosmic microwave background result in observational signatures that depend on the bubble content. Those recent observations provided evidence for underdense bubbles with a relativistic filling while adopting simplifying modeling assumptions for the bubbles. By reproducing the observations with our simulations, we confirm the validity of their modeling assumptions and as such, confirm the important finding of low-(momentum) density jets.
In addition, the velocity and magnetic field structure of the intracluster medium have profound consequences for bubble evolution and heating processes. As velocity and magnetic fields are physically coupled, we demonstrate that numerical simulations can help link and thereby constrain their respective observables. Finally, we implement the currently preferred accretion model, cold accretion, into the moving-mesh code arepo and study feedback by light jets in a radiatively cooling magnetized cluster. While self-regulation is attained independently of accretion model, jet density and feedback efficiencies, we find that in order to reproduce observed cold gas morphology light jets are preferred.
Forum Logopädie
(2023)
Recently, C K-edge Near Edge X-ray Absorption Fine Structure (NEXAFS) spectra of graphite (HOPG) surfaces have been measured for the pristine material, and for HOPG treated with either bromine or krypton plasmas (Lippitz et al., Surf. Sci., 2013, 611, L1). Changes of the NEXAFS spectra characteristic for physical (krypton) and/or chemical/physical modifications of the surface (bromine) upon plasma treatment were observed. Their molecular origin, however, remained elusive. In this work we study by density functional theory, the effects of selected point and line defects as well as chemical modifications on NEXAFS carbon K-edge spectra of single graphene layers. For Br-treated surfaces, also Br 3d X-ray Photoelectron Spectra (XPS) are simulated by a cluster approach, to identify possible chemical modifications. We observe that some of the defects related to plasma treatment lead to characteristic changes of NEXAFS spectra, similar to those in experiment. Theory provides possible microscopic origins for these changes.
In Near Edge X-Ray Absorption Fine Structure (NEXAFS) spectroscopy X-Ray photons are used to excite tightly bound core electrons to low-lying unoccupied orbitals of the system. This technique offers insight into the electronic structure of the system as well as useful structural information. In this work, we apply NEXAFS to two kinds of imidazolium based ionic liquids ([CnC1im]+[NTf2]- and [C4C1im]+[I]-). A combination of measurements and quantum chemical calculations of C K and N K NEXAFS resonances is presented. The simulations, based on the transition potential density functional theory method (TP-DFT), reproduce all characteristic features observed by the experiment. Furthermore, a detailed assignment of resonance features to excitation centers (carbon or nitrogen atoms) leads to a consistent interpretation of the spectra.
Die vorgelegte Dissertation präsentiert wissenschaftliche Ergebnisse, die in der Zeit vom Dezember 2012 bis August 2016, erarbeitet wurden. Der zentrale Inhalt der Arbeit ist die Simulation von Röntgenabsorptionsprozessen von verschiedenen Systemen in kondensierter Phase. Genauer gesagt, werden Nahkantenabsorptions- (NEXAFS) sowie Röntgenphotoelektronenspektren (XPS) berechnet. In beiden Fällen wird ein Röntgenphoton von einem molekularen System absorbiert. Aufgrund der hohen Photonenenergie wird ein stark gebundenes kernnahes Elektron angeregt. Bei der XPS gelangt dieses mit einer zu messenden kinetischen Energie in Kontinuumszustände. In Abhängigkeit der eingestrahlten Photonenenergie und der kinetischen Energie des austreten Elektrons, kann die Bindungsenergie berechnet werden, welche die zentrale Größe der XPS ist. Im Falle der NEXAFS-Spektroskopie wird das kernnahe Elektron in unbesetzte gebundene Zustände angeregt. Die zentrale Größe ist die Absorption als Funktion der eingestrahlten Photonenenergie. Das erste Kapitel meiner Arbeit erörtert detailliert die experimentellen Methoden sowie die daraus gewonnenen charakteristischen Größen.
Die experimentellen Spektren zeigen oft viele Resonanzen, deren Interpretation aufgrund fehlender Referenzmaterialien schwierig ist. In solchen Fällen bietet es sich an, die Spektren mittels quantenchemischer Methoden zu simulieren. Der dafür erforderliche mathematisch-physikalische Methodenkatalog wird im zweiten Kapitel der Arbeit erörtert.
Das erste von mir untersuchte System ist Graphen. In experimentellen Arbeiten wurde die Oberfläche mittels Bromplasma modifiziert. Die im Anschluss gemessenen NEXAFS-Spektren unterscheiden sich maßgeblich von den Spektren der unbehandelten Oberfläche. Mithilfe periodischer DFT-Rechnungen wurden verschiedene Gitterdefekte sowie bromierte Systeme untersucht und die NEXAFS-Spektren simuliert. Mittels der Simulationen können die Beiträge verschiedener Anregungszentren analysiert werden. Die Berechnungen erlauben den Schluss, dass Gitterdefekte maßgeblich für die entstandenen Veränderungen verantwortlich sind.
Polyvinylalkohol (PVA) wurde als zweites System behandelt. Hierbei sollte untersucht werden, wie groß der Einfluss der Molekularbewegung auf die Verbreiterung der Peaks im XP-Spektrum ist. Des Weiteren wurde untersucht, wie groß der Einfluss von intermolekularen Wechselwirkungen auf die Peakpositionen und Peakverbreiterung ist. Für die Berechnung dieses Systems wurde eine Kombination aus molekulardynamischen und quantenchemischen Methoden verwendet. Als Strukturen dienten Oligomermodelle, die unter dem Einfluss eines (ab initio) Potentials propagiert wurden. Entlang der erstellten Trajektorie wurden Schnappschüsse der Geometrien extrahiert und für die Berechnung der XP-Spektren verwendet. Die Spektren werden bereits mithilfe klassischer Molekulardynamik sehr gut reproduziert. Die erhaltenen Peakbreiten sind verglichen mit dem Experiment allerdings zu klein. Die Hauptursache der Peakverbreiterung ist die Molekularbewegung. Intermolekulare Wechselwirkungen verschieben die Peakpositionen um 0.6 eV zu kleineren Anregungsenergien.
Im dritten Teil der Arbeit stehen die NEXAFS-Spektren von ionischen Flüssigkeiten (ILs) im Fokus. Die experimentell gefundenen Spektren zeigen eine komplexe Struktur mit vielen Resonanzen. In der Arbeit wurden zwei ILs untersucht. Als Geometrien verwenden wir Clustermodelle, die aus experimentellen Kristallstrukturen extrahiert wurden. Die berechneten Spektren erlauben es, die Resonanzen den Anregungszentren zuzuordnen. Außerdem kann eine erstmals gemessene Doppelresonanz simuliert und erklärt werden. Insgesamt kann die Interpretation der Spektren mithilfe der Simulation signifikant erweitert werden.
In allen Systemen wurde zur Berechnung des NEXAFS-Spektrums eine auf Dichtefunktionaltheorie basierende Methode verwendet (die sogenannte Transition-Potential Methode). Gängige wellenfunktionsbasierte Methoden, wie die Konfigurationswechselwirkung mit Einfachanregungen (CIS), zeigen eine starke Blauverschiebung, wenn als Referenz eine Hartree-Fock Slaterdeterminante verwendet wird. Wir zeigen, dass die Verwendung von kernnah-angeregten Determinanten sowohl das resultierende Spektrum als auch die Anregungsenergien deutlich verbessert. Des Weiteren werden auch Referenzen aus Dichtefunktionalrechnungen getestet. Zusätzlich werden auch Referenzen mit gebrochenen Besetzungszahlen für kernnahe Elektronen verwendet. In der Arbeit werden die Resultate der verschiedenen Referenzen miteinander verglichen. Es zeigt sich, dass Referenzen mit gebrochenen Besetzungszahlen das Spektrum nicht weiter verbessern. Der Einfluss der verwendeten Elektronenstrukturmethode ist eher gering.
Intelligence, as well as working memory and attention, affect the acquisition of mathematical competencies. This paper aimed to examine the influence of working memory and attention when taking different mathematical skills into account as a function of children’s intellectual ability. Overall, intelligence, working memory, attention and numerical skills were assessed twice in 1868 German pre-school children (t1, t2) and again at 2nd grade (t3). We defined three intellectual ability groups based on the results of intellectual assessment at t1 and t2. Group comparisons revealed significant differences between the three intellectual ability groups. Over time, children with low intellectual ability showed the lowest achievement in domain-general and numerical and mathematical skills compared to children of average intellectual ability. The highest achievement on the aforementioned variables was found for children of high intellectual ability. Additionally, path modelling revealed that, depending on the intellectual ability, different models of varying complexity could be generated. These models differed with regard to the relevance of the predictors (t2) and the future mathematical skills (t3). Causes and conclusions of these findings are discussed.
Im ersten Teil werden die vorliegenden Untersuchungen zur Kinderform der Picture- Frustration Study (P-F S) diskutiert. Die vorgelegten Befunde stützen einander wenig. Neben methodischen Mängeln der Untersuchungen lassen gewisse Besonderheiten des Tests wie der fehlende Geschlechterunterschied, das (unbekannte) Niveau der Selbstdarstellung und der (unberücksichtigte) Anregungsgehalt der Bildvorlagen auf gültigkeitsmindernde Fehlervarianzquellen schließen. Im zweiten Teil wird eine Untersuchung beschrieben, in der die Testergebnisse von 28 neunjährigen Heimkindern beiderlei Geschlechts mit der Beurteilung der Aggressivität durch die Erzieher und mit den Aggressionen im freien Spiel verglichen wurden. Der Rosenzweig-Faktor E und, in gegenläufiger Richtung, die Impunitivität zeigten sehr enge Beziehungen zu den beiden Kriterien. Eine Kontrolle des Niveaus der Selbstdarstellung und des Anregungsgehaltes der Bildvorlagen erwies sich als nicht notwendig. Es ergab sich auch ein Erklärungsansatz in bezug auf die fehlende Geschlechterabhängigkeit der Aggressivitätsvariablen der P-F S.
Inhalt der Arbeit ist es, einen Überblick über die historische Entwicklung der öffentlich-rechtlichen Gefährdungshaftung in Deutschland vom 18. Jahrhundert bis heute zu geben sowie ihre praktische Bedeutung zu analysieren. Dabei wird zwischen den unterschiedlichen Gesetzgebungen, Rechtsprechungen und den theoretischen Lösungsansätzen der öffentlich-rechtlichen Gefährdungshaftung unterschieden und insbesondere letzteres problematisiert. Ferner wird auf das Verhältnis zu den grundrechtlichen Schutzpflichten, den sozialen Risikotatbeständen, dem sozialrechtlichen Herstellungsanspruch und den Tumultschäden eingegangen.
Die vorliegende Masterarbeit untersucht die Rolle des „Neuen Plan“ von Reichswirtschaftsminister Hjalmar Schacht in der nationalsozialistischen Außenwirtschaftspolitik in fünf konsekutiven Teilschritten. Erstens wird ein kurzer Überblick über den derzeitigen Forschungsstand zum „Neuen Plan“ geliefert und auf die Quellenlage zur Bearbeitung der Fragestellung eingegangen. Um zweitens eine Aussage über das Verhältnis zwischen dem „Neuen Plan“ und den außenwirtschaftspolitischen Leitlinien des Nationalsozialismus treffen zu können, werden diese für die NSDAP als Partei sowie für Hitler als unangefochtene politische Führungsfigur auf Basis geeigneter Primärquellen herausgearbeitet. Drittens wird anhand relevanter Wirtschaftsentwicklungen auf die Ausgangslage der außenwirtschaftspolitischen Krisensituation ab Mitte 1934 eingegangen, die durch den „Neuen Plan“ im Sinne des NS-Regimes gelöst werden sollte. Viertens wird im Hauptteil der Forschungsarbeit der „Neue Plan“ in mehreren Teilschritten erklärt. Zunächst wird hierfür auf die politischen Entwicklungen eingegangen, an welche der „Neue Plan“ anknüpfen konnte sowie auf die verschiedenen Bestandteile seiner Funktionsweise, die auf dieser Grundlage reformiert, erweitert oder neu geschaffen wurden. Inwieweit diese Maßnahmen mit den außenwirtschaftspolitischen Leitlinien der NS-Ideologie kompatibel waren, wird im Nachgang analysiert und kritisch eingeordnet. Die Effektivität des „Neuen Plans“ wird zudem in Bezug auf fünf Themenfelder anhand wirtschaftlicher Kennzahlen des Statistischen Jahrbuchs des Deutschen Reiches quellenbasiert beurteilt. Diese Analyse umfasst den Zeitraum vom Beginn des „Neuen Plans“ im Jahr 1934 bis zur Entmachtung Schachts als Reichswirtschaftsminister zum Jahresende 1937.
Dieser Beitrag diskutiert die Konzeption eines Software-Projektpraktikums im Bereich E-Learning, welches Lehramts- und Fachstudierenden der Informatik ermöglicht, voneinander zu profitieren und praxisrelevante Ergebnisse generiert. Vorbereitungen, Organisation und Durchführung werden vorgestellt und diskutiert. Den Abschluss bildet ein Ausblick auf die Fortführung des Konzepts und den Ausbau des Forschungsgebietes.
Übungsbuch zur Stochastik
(2023)
Dieses Buch stellt Übungen zu den Grundbegriffen und Grundsätzen der Stochastik und ihre Lösungen zur Verfügung. So wie man Tonleitern in der Musik trainiert, so berechnet man Übungsaufgaben in der Mathematik. In diesem Sinne soll dieses Übungsbuch vor allem als Vorlage dienen für das eigenständige, eigenverantwortliche Lernen und Üben.
Die Schönheit und Einzigartigkeit der Wahrscheinlichkeitstheorie besteht darin, dass sie eine Vielzahl von realen Phänomenen modellieren kann. Daher findet man hier Aufgaben mit Verbindungen zur Geometrie, zu Glücksspielen, zur Versicherungsmathematik, zur Demographie und vielen anderen Themen.
Despite its many challenges and limitations the concept of in situ upgrading of informal settlements has become one of the most favoured approaches to the housing crisis in the ‘Global South’. Due to its inherent principles of incremental in situ development, prevention of relocations, protection of local livelihoods and democratic participation and cooperation, this approach is often perceived to be more sustainable than other housing approaches that often rely on quantitative housing delivery and top down planning methodologies. While this study does not question the benefits of the in situ upgrading approach, it seeks to identify problems of its practical implementation within a specific national and local context. The study discusses the origin and importance of this approach on the basis of a review of international housing policy development and analyses the broader political and social context of the incorporation of this approach into South African housing policy. It further uses insights from a recent case study in Cape Town to determine complications and conflicts that can arise when applying in situ upgrading of informal settlements in a complex local context. On that basis benefits and limitations of the in situ upgrading approach are specified and prerequisites for its successful implementation formulated.
Hunting Down Animal Verbs
(2022)
Language change is an essential feature of human language, and it is therefore one of the focal areas of the scientific study of language. Language change is always tacitly at work in all languages of the world and at all levels of a given language, be it phonology, morphology, syntax, semantics, etc. It has been suggested that it is precisely the capacity to constantly change and adjust that allows language to keep serving the communicative goals of its users, from ancient to modern times (Fauconnier & Turner, 2003, p. 179).
This thesis investigates an especially salient pattern of lexicogrammatical change, namely word-formation of verbs from animal nouns by zero-derivation, in the process of which such nouns as, for example, dog, horse, or beaver change their usage and meaning to produce animal verbs: to dog ‘to follow someone persistently and with a malicious intent’, to horse about/around ‘to make fun of, to ‘rag’, to ridicule someone’ and to beaver away ‘to work at working with great enthusiasm’ respectively. In the previous literature this pattern of language change has been termed verbal zoosemy (e.g. Kiełtyka, 2016), i.e. metaphorical construal of human actions by means of linguistic material from the domain of animals.
The approach taken in this study is not to simply report on the objective changes in the morphology, syntactic distribution and meaning of such linguistic units before and after conversion, but to uncover the complexity of cognitive mechanisms which allow the speakers of English to reclassify such well-established nominal units as animal noun into verbs. It is assumed that the grammatical change in these lexical units is predicated on and triggered by preceding semantic change. Thus, the study is set in the framework of Cognitive Historical Semantics and employs the Conceptual Metaphor and Metonymy Theory (CMMT) to untangle the intricacies of the semantic change making the grammatical change of animal nouns into verbs possible and acceptable in the minds of English speakers.
To this end, this study employed the Oxford English Dictionary Online (OED Online) to compile a glossary of 96 denominal animal verbal forms tied to 209 verbal senses (most verbs in the dataset displayed polysemy). The data collected from the OED Online included not only the senses of the verbs, but also the date of the earliest recorded use of the verbal form with the given sense (regarded in the study as the date of conversion), the earliest usage examples for individual senses and morphologically or semantically related linguistic units from the lexical field of the respective parent noun which were amenable to explaining the observed instances of semantic change. Each instance of zoosemisation, i.e. of the creation of a separate metaphorical verbal sense, was then carefully analysed on the basis of the data collected and classified with the help of the CMMT. In the final stage, a comprehensive and systematic classification of the senses of animal verbs in accordance with the cognitive mechanisms of their creation (metaphor, metonymy, or a combination thereof) was produced together with a timeline of the first appearance of individual metaphorical senses of animal verbs recorded in the OED.
The results show that animal verbs are produced through the interaction of conceptual metaphor and metonymy. Specifically, it was established that two major patterns of metaphor-metonymy interaction underpinning the process of verbal zoosemisation are metaphor from metonymy and metonymy from metaphor. In the former pattern, either an already existing metonymic animal verb is expanded to include the target domain PEOPLE, or the animal noun itself acts as a metonymic vehicle to a certain element of the idealised cognitive model of the given animal, which is metaphorically projected onto people. In the latter mechanism, a metaphorical projection of an animal term initially enters the lexicon in the form of a metaphorical animal noun referring to a human entity, and later in the course of language development it comes to metonymically stand for the action, which the given entity either performs or is involved in. Secondarily, it was observed that individual animal nouns can undergo multiple rounds of zoosemic conversion over time depending on the semantic frame in which the given linguistic unit undergoes denominal conversion, and that results in the polysemy of most animal verbs.