Z Other Special Topics
Refine
Document Type
- Doctoral Thesis (5)
Is part of the Bibliography
- yes (5)
Keywords
- Affect (1)
- Affekt (1)
- Age (1)
- Alter (1)
- Andres Serrano (1)
- Anselm Kiefer (1)
- Application Aggregation (1)
- Applications and Software Development (1)
- Auslandseinsätze (1)
- Automatic UI Generation (1)
Das vergessene Gedenken
(2022)
Seit Aufstellung der Bundeswehr 1955 verloren über 3300 Soldaten und Soldatinnen ihr Leben im Dienst. Nur eine kleine Minderheit von ihnen fiel während des Kampfeinsatzes in Afghanistan. Die weitaus meisten Soldaten starben bei Unfällen. Ihnen hat die Bundeswehr lange das öffentliche Gedenken verweigert.
Erst mit Beginn des Afghanistan-Einsatzes 2002 setzte letztlich ein Umdenken ein, das in der Einweihung des Berliner Ehrenmales der Bundeswehr 2009 seinen vorläufigen Höhepunkt findet. Seitdem gedenkt die Bundeswehr offiziell und öffentlich ihrer toten Soldaten.
Aber warum verweigerte die Bundeswehr ihren Toten so lange ein öffentlich sichtbares und dauerhaftes Gedenken?
Julia Katharina Nordmann beleuchtet die komplexen Ursachen für diesen Umgang der Bundeswehr mit ihren Toten. Und sie rekonstruiert den langen und mühsamen Prozess, der zur Ausbildung einer Gedenkkultur geführt hat. Einer Gedenkkultur, die heute in vielfältiger Weise die Toten der Bundeswehr würdigt.
Die vorliegende Studie beschreitet im religionswissenschaftlichen Kontext einen Weg zur Erforschung der Modifikation und Neuausrichtung eines einzelnen christlichen Bildmotivs, dessen Bildformel sich bis in die Gegenwart durchgesetzt hat.
Das Bildmotiv der Pietà wird in der Gegenwartskunst verstärkt als innovative Bildformel in politischen oder sozialen Kontexten verwendet, um existenzielle Lebenserfahrungen oder gesellschaftskritische, sowie politische Anklagen zu formulieren. Es erlebt einen Relaunch in der Medienberichterstattung, der Kunst, in Filmen oder der Alltagskultur. Künstler_innen und Fotojournalist_innen geben ihren Objekten vermehrt den Titel Pietà oder er wird ihnen von außen zuge-schrieben. Die Semantik dieses spezifischen Bildmotivs rührt offenbar an und kann bei Betrachtenden eine emotionale Gestimmtheit evozieren. Für diese Stu-die ist das Norm- und Wertesystem mit dem dahinter liegenden Tradierungs- und Transformationsprozess von Interesse. Bisher fehlt eine Monografie, in der die Zusammenhänge der Wiederbelebung eines primär christlichen Bildmotivs und der gegenwärtigen Bezüge zu Gewalt, Tod, Angst, Vergänglichkeit, dem Altern oder des Verlustes analysiert werden.
Im Vordergrund steht die Frage nach einer Modifikation bzw. Neuinterpretation dieser Ikonik. Das Aufzeigen eines möglichen dynamischen Entwicklungspro-zesses des Bildmotivs soll klären, welche veränderten Funktionen dem Pietà-Motiv in der Gegenwartskunst zugeschrieben werden. Über ein Set international renomierter, zeitgenössischer Künstler_innen werden eventuelle Veränderun-gen und ein damit verbundener gesellschaftlicher Bedeutungswandel seit dem 21. Jahrhundert analysiert.
Vor diesem Hintergrund ist die Frage nach einer religionsübergreifenden Wirk-mächtigkeit ikonischer Präsenz eines religiösen Bildmotivs in der Kunst und den Bildmedien von aktueller Relevanz. Diese Studie leistet einen exemplarischen Beitrag für die Affektforschung, die sich in den vergangenen Jahren vermehrt mit der Emotionsdarstellung und der Emotionsvermittlung in den audiovisuellen Medien befasst.
Die vorliegende Arbeit thematisiert die Synthese und Charakterisierung von neuen funktionalisierten ionischen Flüssigkeiten und deren Polymerisation. Die ionischen Flüssigkeiten wurden dabei sowohl mit polymerisierbaren Kationen als auch Anionen hergestellt. Zum einen wurden bei thermisch initiierten Polymerisationen Azobis(isobutyronitril) (AIBN) verwendet und zum anderen dienten bei photochemisch initiierten Polymerisationen Bis-4-(methoxybenzoyl)diethylgermanium (Ivocerin®) als Radikalstarter.
Mittels Gelpermeationschromatographie konnte das Homopolymer Polydimethylaminoethylmethacrylat untersucht werden, welches erst im Anschluss an die GPC-Messungen polymeranalog modifiziert wurde. Dabei wurden nach einer Quaternisierung und anschließender Anionenmetathese bei diesen Polymeren die Grenzviskositäten bestimmt und mit den Grenzviskositäten der direkt polymerisierten ionischen Flüssigkeiten verglichen. Bei der direkten Polymerisation von Poly(N-[2-(Methacryloyloxy)ethyl]-N-butyl-N,N-dimethyl-ammoniumbis(trifluormethylsulfonyl)imid) lag [η_Huggins] bei 100 mL/g und bei dem polymeranalog hergestellten Polymer betrug [η_Huggins] = 40 mL/g.
Die ionischen Flüssigkeiten mit polymerisierbaren funktionellen Gruppen wurden mittels Photo-DSC hinsichtlich der maximalen Polymerisationsgeschwindigkeit (Rpmax), der Zeit, in der dieses Maximum erreicht wurde, tmax, ihrer Glasüberganstemperatur (Tg) und des Umsatzes an Vinylprotonen untersucht. Bei diesen Messungen wurde zum einen der Einfluss der unterschiedlichen Alkylkettenlänge am Ammoniumion und der Einfluss von verschiedenen Anionen bei gleichbleibender Kationenstruktur analysiert. So polymerisierte das ethylsubstituierte Kation mit einer tmax von 21 Sekunden am langsamsten. Die maximale Polymerisationsgeschwindigkeit (Rpmax) betrug 3.3∙10-2 s-1. Die tmax Werte der übrigen alkylsubstituierten ionischen Flüssigkeiten mit einer polymerisierbaren funktionellen Gruppe hingegen lagen zwischen 10 und 15 Sekunden. Die Glasübergangstemperaturen der mittels photoinduzierter Polymerisation hergestellten Polymere lagen mit 44 bis 55 °C nahe beieinander. Alle Monomere zeigten einen hohen Umsatz der Vinylprotonen; er betrug zwischen 93 und 100%.
Mithilfe einer Bandanlage, ausgerüstet mit einer LED (λ = 395 nm), konnten Polymerfilme hergestellt werden. Der Umsatz an Doppelbindungsäquivalenten dieser Filme wurde anhand der 1H-NMR Spektroskopie bestimmt. Bei der dynamisch-mechanischen Analyse wurden die Polymerfilme mit einer konstanten Heizrate und Frequenz periodisch wechselnden Beanspruchungen ausgesetzt, um die Glasübergangstemperaturen zu bestimmen. Die niedrigste Tg mit 26 °C besaß das butylsubstituierte N-[2-(Methacryloyloxy)ethyl]-N-butyl-N,N-dimethyl-ammoniumbis(trifluormethylsulfonyl)imid, welches als Polymerfilm mit Ivocerin® als Initiator hergestellt wurde, wohingegen die höchste Tg bei dem gleichen Polymer, welches direkt durch freie radikalische Polymerisation der ionischen Flüssigkeit in Masse mit AIBN hergestellt wurde, 51 °C betrug. Zusätzlich wurden die Filme unter dem Aspekt der Topographie mit einem Rasterkraftmikroskop untersucht, welches eine Domänenstruktur des Polymers N-[2-(methacryloyloxy)ethyl]-N-butyl-N,N-dimethyl-ammonium tris(pentafluorethyl)trifluorphosphat offenbarte.
Digitalisierung ermöglicht es uns, mit Partnern (z.B. Unternehmen, Institutionen) in einer IT-unterstützten Umgebung zu interagieren und Tätigkeiten auszuführen, die vormals manuell erledigt wurden. Ein Ziel der Digitalisierung ist dabei, Dienstleistungen unterschiedlicher fachlicher Domänen zu Prozessen zu kombinieren und vielen Nutzergruppen bedarfsgerecht zugänglich zu machen. Hierzu stellen Anbieter technische Dienste bereit, die in unterschiedliche Anwendungen integriert werden können.
Die Digitalisierung stellt die Anwendungsentwicklung vor neue Herausforderungen. Ein Aspekt ist die bedarfsgerechte Anbindung von Nutzern an Dienste. Zur Interaktion menschlicher Nutzer mit den Diensten werden Benutzungsschnittstellen benötigt, die auf deren Bedürfnisse zugeschnitten sind. Hierzu werden Varianten für spezifische Nutzergruppen (fachliche Varianten) und variierende Umgebungen (technische Varianten) benötigt. Zunehmend müssen diese mit Diensten anderer Anbieter kombiniert werden können, um domänenübergreifend Prozesse zu Anwendungen mit einem erhöhten Mehrwert für den Endnutzer zu verknüpfen (z.B. eine Flugbuchung mit einer optionalen Reiseversicherung).
Die Vielfältigkeit der Varianten lässt die Erstellung von Benutzungsschnittstellen komplex und die Ergebnisse sehr individuell erscheinen. Daher werden die Varianten in der Praxis vorwiegend manuell erstellt. Dies führt zur parallelen Entwicklung einer Vielzahl sehr ähnlicher Anwendungen, die nur geringes Potential zur Wiederverwendung besitzen. Die Folge sind hohe Aufwände bei Erstellung und Wartung. Dadurch wird häufig auf die Unterstützung kleiner Nutzerkreise mit speziellen Anforderungen verzichtet (z.B. Menschen mit physischen Einschränkungen), sodass diese weiterhin von der Digitalisierung ausgeschlossen bleiben.
Die Arbeit stellt eine konsistente Lösung für diese neuen Herausforderungen mit den Mitteln der modellgetriebenen Entwicklung vor. Sie präsentiert einen Ansatz zur Modellierung von Benutzungsschnittstellen, Varianten und Kompositionen und deren automatischer Generierung für digitale Dienste in einem verteilten Umfeld. Die Arbeit schafft eine Lösung zur Wiederverwendung und gemeinschaftlichen Nutzung von Benutzungsschnittstellen über Anbietergrenzen hinweg. Sie führt zu einer Infrastruktur, in der eine Vielzahl von Anbietern ihre Expertise in gemeinschaftliche Anwendungen einbringen können.
Die Beiträge bestehen im Einzelnen in Konzepten und Metamodellen zur Modellierung von Benutzungsschnittstellen, Varianten und Kompositionen sowie einem Verfahren zu deren vollständig automatisierten Transformation in funktionale Benutzungsschnittstellen. Zur Umsetzung der gemeinschaftlichen Nutzbarkeit werden diese ergänzt um eine universelle Repräsentation der Modelle, einer Methodik zur Anbindung unterschiedlicher Dienst-Anbieter sowie einer Architektur zur verteilten Nutzung der Artefakte und Verfahren in einer dienstorientierten Umgebung.
Der Ansatz bietet die Chance, unterschiedlichste Menschen bedarfsgerecht an der Digitalisierung teilhaben zu lassen. Damit setzt die Arbeit Impulse für zukünftige Methoden zur Anwendungserstellung in einem zunehmend vielfältigen Umfeld.
The plasmasphere is a dynamic region of cold, dense plasma surrounding the Earth. Its shape and size are highly susceptible to variations in solar and geomagnetic conditions. Having an accurate model of plasma density in the plasmasphere is important for GNSS navigation and for predicting hazardous effects of radiation in space on spacecraft. The distribution of cold plasma and its dynamic dependence on solar wind and geomagnetic conditions remain, however, poorly quantified. Existing empirical models of plasma density tend to be oversimplified as they are based on statistical averages over static parameters. Understanding the global dynamics of the plasmasphere using observations from space remains a challenge, as existing density measurements are sparse and limited to locations where satellites can provide in-situ observations. In this dissertation, we demonstrate how such sparse electron density measurements can be used to reconstruct the global electron density distribution in the plasmasphere and capture its dynamic dependence on solar wind and geomagnetic conditions.
First, we develop an automated algorithm to determine the electron density from in-situ measurements of the electric field on the Van Allen Probes spacecraft. In particular, we design a neural network to infer the upper hybrid resonance frequency from the dynamic spectrograms obtained with the Electric and Magnetic Field Instrument Suite and Integrated Science (EMFISIS) instrumentation suite, which is then used to calculate the electron number density. The developed Neural-network-based Upper hybrid Resonance Determination (NURD) algorithm is applied to more than four years of EMFISIS measurements to produce the publicly available electron density data set.
We utilize the obtained electron density data set to develop a new global model of plasma density by employing a neural network-based modeling approach. In addition to the location, the model takes the time history of geomagnetic indices and location as inputs, and produces electron density in the equatorial plane as an output. It is extensively validated using in-situ density measurements from the Van Allen Probes mission, and also by comparing the predicted global evolution of the plasmasphere with the global IMAGE EUV images of He+ distribution. The model successfully reproduces erosion of the plasmasphere on the night side as well as plume formation and evolution, and agrees well with data.
The performance of neural networks strongly depends on the availability of training data, which is limited during intervals of high geomagnetic activity. In order to provide reliable density predictions during such intervals, we can employ physics-based modeling. We develop a new approach for optimally combining the neural network- and physics-based models of the plasmasphere by means of data assimilation. The developed approach utilizes advantages of both neural network- and physics-based modeling and produces reliable global plasma density reconstructions for quiet, disturbed, and extreme geomagnetic conditions.
Finally, we extend the developed machine learning-based tools and apply them to another important problem in the field of space weather, the prediction of the geomagnetic index Kp. The Kp index is one of the most widely used indicators for space weather alerts and serves as input to various models, such as for the thermosphere, the radiation belts and the plasmasphere. It is therefore crucial to predict the Kp index accurately. Previous work in this area has mostly employed artificial neural networks to nowcast and make short-term predictions of Kp, basing their inferences on the recent history of Kp and solar wind measurements at L1. We analyze how the performance of neural networks compares to other machine learning algorithms for nowcasting and forecasting Kp for up to 12 hours ahead. Additionally, we investigate several machine learning and information theory methods for selecting the optimal inputs to a predictive model of Kp. The developed tools for feature selection can also be applied to other problems in space physics in order to reduce the input dimensionality and identify the most important drivers.
Research outlined in this dissertation clearly demonstrates that machine learning tools can be used to develop empirical models from sparse data and also can be used to understand the underlying physical processes. Combining machine learning, physics-based modeling and data assimilation allows us to develop novel methods benefiting from these different approaches.