Refine
Year of publication
- 2022 (252) (remove)
Document Type
- Doctoral Thesis (252) (remove)
Is part of the Bibliography
- yes (252)
Keywords
- Klimawandel (6)
- climate change (5)
- Arabidopsis thaliana (3)
- Bundeswehr (3)
- Digitalisierung (3)
- Epigenetik (3)
- Kunstgeschichte (3)
- Modellierung (3)
- Röntgenspektroskopie (3)
- Transkriptionsfaktoren (3)
Institute
- Institut für Biochemie und Biologie (43)
- Extern (27)
- Institut für Physik und Astronomie (25)
- Institut für Chemie (23)
- Institut für Geowissenschaften (19)
- Historisches Institut (15)
- Hasso-Plattner-Institut für Digital Engineering GmbH (14)
- Institut für Ernährungswissenschaft (10)
- Institut für Umweltwissenschaften und Geographie (9)
- Wirtschaftswissenschaften (8)
Afropolitan Encounters
(2022)
Afropolitan Encounters: Literature and Activism in London and Berlin explores what Afropolitanism does. Mobile people of African descent use this term to address their own lived realities creatively, which often includes countering stereotypical notions of being African. Afropolitan practices are enormously heterogeneous and malleable, which constitutes its strengths and, at the same time, creates tensions.
This book traces the theoretical beginnings of Afropolitanism and moves on to explore Afropolitan practices in London and Berlin. Afropolitanism can take different forms, such as that of an identity, a political and ethical stance, a dead–end road, networks, a collective self–care practice or a strategic label. In spite of the harsh criticism, Afropolitanism is attractive for people to deal with the meanings of Africa and Africanness, questions of belonging, equal rights and opportunities.
While not a unitary project, the vast variety of Afropolitan practices provide approaches to contemporary political problems in Europe and beyond. In this book, Afropolitan practices are read against the specific context of German and British colonial histories and structures of racism, the histories of Black Europeans, and contemporary right–wing resurgence in Germany and England, respectively.
The present dissertation conducts empirical research on the relationship between urban life and its economic costs, especially for the environment. On the one hand, existing gaps in research on the influence of population density on air quality are closed and, on the other hand, innovative policy measures in the transport sector are examined that are intended to make metropolitan areas more sustainable. The focus is on air pollution, congestion and traffic accidents, which are important for general welfare issues and represent significant cost factors for urban life. They affect a significant proportion of the world's population. While 55% of the world's people already lived in cities in 2018, this share is expected to reach approximately 68% by 2050.
The four self-contained chapters of this thesis can be divided into two sections: Chapters 2 and 3 provide new causal insights into the complex interplay between urban structures and air pollution. Chapters 4 and 5 then examine policy measures to promote non-motorised transport and their influence on air quality as well as congestion and traffic accidents.
Technological progress allows for producing ever more complex predictive models on the basis of increasingly big datasets. For risk management of natural hazards, a multitude of models is needed as basis for decision-making, e.g. in the evaluation of observational data, for the prediction of hazard scenarios, or for statistical estimates of expected damage. The question arises, how modern modelling approaches like machine learning or data-mining can be meaningfully deployed in this thematic field. In addition, with respect to data availability and accessibility, the trend is towards open data. Topic of this thesis is therefore to investigate the possibilities and limitations of machine learning and open geospatial data in the field of flood risk modelling in the broad sense. As this overarching topic is broad in scope, individual relevant aspects are identified and inspected in detail.
A prominent data source in the flood context is satellite-based mapping of inundated areas, for example made openly available by the Copernicus service of the European Union. Great expectations are directed towards these products in scientific literature, both for acute support of relief forces during emergency response action, and for modelling via hydrodynamic models or for damage estimation. Therefore, a focus of this work was set on evaluating these flood masks. From the observation that the quality of these products is insufficient in forested and built-up areas, a procedure for subsequent improvement via machine learning was developed. This procedure is based on a classification algorithm that only requires training data from a particular class to be predicted, in this specific case data of flooded areas, but not of the negative class (dry areas). The application for hurricane Harvey in Houston shows the high potential of this method, which depends on the quality of the initial flood mask.
Next, it is investigated how much the predicted statistical risk from a process-based model chain is dependent on implemented physical process details. Thereby it is demonstrated what a risk study based on established models can deliver. Even for fluvial flooding, such model chains are already quite complex, though, and are hardly available for compound or cascading events comprising torrential rainfall, flash floods, and other processes. In the fourth chapter of this thesis it is therefore tested whether machine learning based on comprehensive damage data can offer a more direct path towards damage modelling, that avoids explicit conception of such a model chain. For that purpose, a state-collected dataset of damaged buildings from the severe El Niño event 2017 in Peru is used. In this context, the possibilities of data-mining for extracting process knowledge are explored as well. It can be shown that various openly available geodata sources contain useful information for flood hazard and damage modelling for complex events, e.g. satellite-based rainfall measurements, topographic and hydrographic information, mapped settlement areas, as well as indicators from spectral data. Further, insights on damaging processes are discovered, which mainly are in line with prior expectations. The maximum intensity of rainfall, for example, acts stronger in cities and steep canyons, while the sum of rain was found more informative in low-lying river catchments and forested areas. Rural areas of Peru exhibited higher vulnerability in the presented study compared to urban areas. However, the general limitations of the methods and the dependence on specific datasets and algorithms also become obvious.
In the overarching discussion, the different methods – process-based modelling, predictive machine learning, and data-mining – are evaluated with respect to the overall research questions. In the case of hazard observation it seems that a focus on novel algorithms makes sense for future research. In the subtopic of hazard modelling, especially for river floods, the improvement of physical models and the integration of process-based and statistical procedures is suggested. For damage modelling the large and representative datasets necessary for the broad application of machine learning are still lacking. Therefore, the improvement of the data basis in the field of damage is currently regarded as more important than the selection of algorithms.
Proteine sind an praktisch allen Prozessen in lebenden Zellen maßgeblich beteiligt. Auch in der Biotechnologie werden Proteine in vielfältiger Weise eingesetzt.
Ein Protein besteht aus einer Kette von Aminosäuren. Häufig lagern sich mehrere dieser Ketten zu größeren Strukturen und Funktionseinheiten, sogenannten Proteinkomplexen,
zusammen. Kürzlich wurde gezeigt, dass eine Proteinkomplexbildung bereits während der Biosynthese der Proteine (co-translational) stattfinden kann
und nicht stets erst danach (post-translational) erfolgt. Da Fehlassemblierungen von Proteinen zu Funktionsverlusten und adversen Effekten führen, ist eine präzise und verlässliche Proteinkomplexbildung sowohl für zelluläre Prozesse als auch für biotechnologische Anwendungen essenziell. Mit experimentellen Methoden lassen sich zwar u.a. die Stöchiometrie und die Struktur von Proteinkomplexen bestimmen,
jedoch bisher nicht die Dynamik der Komplexbildung auf unterschiedlichen Zeitskalen. Daher sind grundlegende Mechanismen der Proteinkomplexbildung noch nicht vollständig verstanden. Die hier vorgestellte, auf experimentellen Erkenntnissen aufbauende, computergestützte Modellierung der Proteinkomplexbildung erlaubt eine umfassende Analyse des Einflusses physikalisch-chemischer Parameter
auf den Assemblierungsprozess. Die Modelle bilden möglichst realistisch die experimentellen Systeme der Kooperationspartner (Bar-Ziv, Weizmann-Institut, Israel; Bukau und Kramer, Universität Heidelberg) ab, um damit die Assemblierung von Proteinkomplexen einerseits in einem quasi-zweidimensionalen synthetischen Expressionssystem (in vitro) und andererseits im Bakterium Escherichia coli (in vivo) untersuchen zu können. Mit Hilfe eines vereinfachten Expressionssystems, in dem die Proteine nur an die Chip-Oberfläche, aber nicht aneinander binden können, wird das theoretische Modell parametrisiert. In diesem vereinfachten in-vitro-System durchläuft die Effizienz der Komplexbildung drei Regime – ein bindedominiertes Regime, ein Mischregime und ein produktionsdominiertes Regime. Ihr Maximum erreicht die Effizienz dabei kurz nach dem Übergang vom bindedominierten ins Mischregime und fällt anschließend monoton ab. Sowohl im nicht-vereinfachten in-vitro- als auch im in-vivo-System koexistieren je zwei konkurrierende Assemblierungspfade: Im in-vitro-System erfolgt die Komplexbildung entweder spontan in wässriger Lösung (Lösungsassemblierung) oder aber in einer definierten Schrittfolge an der Chip-Oberfläche (Oberflächenassemblierung); Im in-vivo-System konkurrieren hingegen die co- und die post-translationale Komplexbildung. Es zeigt sich, dass die Dominanz der Assemblierungspfade im in-vitro-System zeitabhängig ist und u.a. durch die Limitierung und Stärke der Bindestellen auf der Chip-Oberfläche beeinflusst werden kann. Im in-vivo-System hat der räumliche Abstand zwischen den Syntheseorten der beiden Proteinkomponenten nur dann einen Einfluss auf die Komplexbildung, wenn die Untereinheiten schnell degradieren. In diesem Fall dominiert die co-translationale Assemblierung auch auf kurzen Zeitskalen deutlich, wohingegen es bei stabilen Untereinheiten zu einem Wechsel von der Dominanz der post- hin zu einer geringen Dominanz der co-translationalen Assemblierung kommt. Mit den in-silico-Modellen lässt sich neben der Dynamik u.a. auch die Lokalisierung der Komplexbildung und -bindung darstellen, was einen Vergleich der theoretischen Vorhersagen mit experimentellen Daten und somit eine Validierung der Modelle ermöglicht. Der hier präsentierte in-silico Ansatz ergänzt die experimentellen Methoden, und erlaubt so, deren Ergebnisse zu interpretieren und neue Erkenntnisse davon abzuleiten.
The development of speaking competence is widely regarded as a central aspect of second language (L2) learning. It may be questioned, however, if the currently predominant ways of conceptualising the term fully satisfy the complexity of the construct: Although there is growing recognition that language primarily constitutes a tool for communication and participation in social life, as yet it is rare for conceptualisations of speaking competence to incorporate the ability to inter-act and co-construct meaning with co-participants. Accordingly, skills allowing for the successful accomplishment of interactional tasks (such as orderly speaker change, and resolving hearing and understanding trouble) also remain largely unrepresented in language teaching and assessment. As fostering the ability to successfully use the L2 within social interaction should arguably be a main objective of language teaching, it appears pertinent to broaden the construct of speaking competence by incorporating interactional competence (IC). Despite there being a growing research interest in the conceptualisation and development of (L2) IC, much of the materials and instruments required for its teaching and assessment, and thus for fostering a broader understanding of speaking competence in the L2 classroom, still await development. This book introduces an approach to the identification of candidate criterial features for the assessment of EFL learners’ L2 repair skills. Based on a corpus of video-recorded interaction between EFL learners, and following conversation-analytic and interactional-linguistic methodology as well as drawing on basic premises of research in the framework of Conversation Analysis for Second Language Acquisition, differences between (groups of) learners in terms of their L2 repair conduct are investigated through qualitative and inductive analyses. Candidate criterial features are derived from the analysis results. This book does not only contribute to the operationalisation of L2 IC (and of L2 repair skills in particular), but also lays groundwork for the construction of assessment scales and rubrics geared towards the evaluation of EFL learners’ L2 interactional skills.
Die allergische Kontaktdermatitis ist eine immunologisch bedingte Hauterkrankung mit insbesondere in den westlichen Industrienationen hoher und weiter ansteigender Prävalenz. Es handelt sich hierbei um eine Hypersensitivitätsreaktion vom Typ IV, die sich nach Allergenkontakt durch Juckreiz, Rötung, Bläschenbildung und Abschälung der Haut äußert. Zahlreiche Xenobiotika besitzen das Potenzial, Kontaktallergien auszulösen, darunter Konservierungsstoffe, Medikamente, Duftstoffe und Chemikalien. Die wirksamste Maßnahme zur Eindämmung der Erkrankung ist die Expositionsprophylaxe, also die Vermeidung des Kontakts mit den entsprechenden Substanzen. Dies wiederum setzt die Kenntnis des jeweiligen sensibilisierenden Potenzials einer Substanz voraus, dessen Bestimmung aus diesem Grund eine hohe toxikologische Relevanz besitzt. Zu diesem Zweck existieren von der OECD veröffentlichte Testleitlinien, welche auf entsprechend validierten Testmethoden basieren. Goldstandard bei der Prüfung auf hautsensibilisierendes Potenzial war über lange Zeit der murine Lokale Lymphknotentest. Seit der 7. Änderung der EU-Kosmetikrichtlinie, welche Tierversuche für Kosmetika und deren Inhaltsstoffe untersagt, wurden vermehrt Alternativmethoden in die OECD-Testleitlinien implementiert.. Die bestehenden in vitro Methoden sind jedoch alleinstehend nur begrenzt aussagekräftig, da sie lediglich singuläre Mechanismen bei der Entstehung einer Kontaktallergie abbilden. Die Entwicklung von Testmethoden, welche mehrere dieser Schlüsselereignisse berücksichtigen, erscheint daher richtungsweisend. Einen vielversprechenden Ansatz liefert hierbei der Loose-fit coculture-based sensitisation assay (LCSA), welcher eine Kokultur aus primären Keratinozyten und PBMC darstellt. Bei der Kokultivierung von Immunzellen mit anderen Zelltypen stellt sich allerdings die Frage, inwiefern die Nutzung von Zellen derselben Spender*innen (autologe Kokultur) bzw. verschiedener Spender*innen (allogene Kokultur) einen Einfluss nimmt. Zu diesem Zweck wurden im Rahmen dieser Arbeit Hautzellen spenderspezifisch aus gezupften Haarfollikeln isoliert und der LCSA mit den generierten HFDK in autologen und allogenen Ansätzen verglichen. Zusätzlich wurde auch ein Vergleich zwischen der Nutzung von HFDK und NHK, welche aus humaner Vorhaut isoliert wurden, im LCSA durchgeführt. Dabei ergaben sich keine signifikanten Unterschiede zwischen autologen und allogenen Kokulturen bzw. zwischen der Verwendung von HFDK und NHK. Die Verwendung allogener Zellen aus anonymem Spendermaterial sowie die Nutzung von Keratinozyten aus unterschiedlichen Quellen scheint im Rahmen des LCSA problemlos möglich. Einige der getesteten Kontaktallergene, darunter DNCB und NiCl2, erwiesen sich im LCSA jedoch als problematisch und konnten nicht zufriedenstellend als sensibilisierend detektiert werden. Daher wurde eine Optimierung der Kokultur durch Verwendung ex vivo differenzierter Langerhans Zellen (MoLC) angestrebt, welche ein besseres Modell primärer epidermaler Langerhans Zellen darstellen als die dendritischen Zellen aus dem LCSA. Zusätzlich wurden weitere, den Erfolg der Kokultur beeinflussende Faktoren, wie die Art und Zusammensetzung des Mediums und die Kokultivierungsdauer, untersucht und angepasst. Das schlussendlich etablierte Kokultivierungsprotokoll führte zu einer maßgeblich verstärkten Expression von CD207 (Langerin) auf den MoLC, was auf eine wirkungsvolle Interaktion zwischen Haut- und Immunzellen in der Kokultur hindeutete. Des Weiteren konnten DNCB und NiCl2 im Gegensatz zum LCSA durch Verwendung des kostimulatorischen Moleküls CD86 sowie des Reifungsmarkers CD83 als Ausleseparameter eindeutig als Kontaktallergene identifiziert werden. Die Untersuchungen zur Kokultur von MoLC und HFDK wurden jeweils vergleichend in autologen und allogenen Ansätzen durchgeführt. Ähnlich wie beim LCSA kam es aber auch hier zu keinen signifikanten Unterschieden, weder hinsichtlich der Expression von Charakterisierungs- und Aktivierungsmarkern auf MoLC noch hinsichtlich der Zytokinsekretion in den Zellkulturüberstand. Die Hinweise aus zahlreichen Studien im Mausmodell, dass Zellen des angeborenen Immunsystems zur Erkennung von und Aktivierung durch allogene Zellen bzw. Gewebe in der Lage sind, bestätigten sich im Rahmen dieser Arbeit dementsprechend nicht. Aus diesem Grund wurden abschließend CD4+ T-Lymphozyten, die Effektorzellen des adaptiven Immunsystems, in die Kokultur aus MoLC und autologen bzw. allogenen HFDK integriert. Überraschenderweise traten auch hier keine verstärkten Aktivierungen in allogener Kokultur im Vergleich zur autologen Kokultur auf. Die Nutzung autologer Primärzellen scheint im Rahmen der hier getesteten Methoden nicht notwendig zu sein, was die Validierung von Kokulturen und deren Implementierung in die OECD-Testleitlinien erleichtern dürfte. Zuletzt wurde eine Kokultivierung primärer Haut- und Immunzellen auch im 3D-Vollhautmodell durchgeführt, wobei autologe MoLC in die Epidermisäquivalente entsprechender Modelle integriert werden sollten. Obwohl die erstellten Hautmodelle unter Verwendung autologer Haarfollikel-generierter Keratinozyten und Fibroblasten eine zufriedenstellende Differenzierung und Stratifizierung aufwiesen, gestaltete sich die Inkorporation der MoLC als problematisch und konnte im Rahmen dieser Arbeit nicht erreicht werden.
A decade ago, it became feasible to store multi-terabyte databases in main memory. These in-memory databases (IMDBs) profit from DRAM's low latency and high throughput as well as from the removal of costly abstractions used in disk-based systems, such as the buffer cache. However, as the DRAM technology approaches physical limits, scaling these databases becomes difficult. Non-volatile memory (NVM) addresses this challenge. This new type of memory is persistent, has more capacity than DRAM (4x), and does not suffer from its density-inhibiting limitations. Yet, as NVM has a higher latency (5-15x) and a lower throughput (0.35x), it cannot fully replace DRAM.
IMDBs thus need to navigate the trade-off between the two memory tiers. We present a solution to this optimization problem. Leveraging information about access frequencies and patterns, our solution utilizes NVM's additional capacity while minimizing the associated access costs. Unlike buffer cache-based implementations, our tiering abstraction does not add any costs when reading data from DRAM. As such, it can act as a drop-in replacement for existing IMDBs. Our contributions are as follows:
(1) As the foundation for our research, we present Hyrise, an open-source, columnar IMDB that we re-engineered and re-wrote from scratch. Hyrise enables realistic end-to-end benchmarks of SQL workloads and offers query performance which is competitive with other research and commercial systems. At the same time, Hyrise is easy to understand and modify as repeatedly demonstrated by its uses in research and teaching.
(2) We present a novel memory management framework for different memory and storage tiers. By encapsulating the allocation and access methods of these tiers, we enable existing data structures to be stored on different tiers with no modifications to their implementation. Besides DRAM and NVM, we also support and evaluate SSDs and have made provisions for upcoming technologies such as disaggregated memory.
(3) To identify the parts of the data that can be moved to (s)lower tiers with little performance impact, we present a tracking method that identifies access skew both in the row and column dimensions and that detects patterns within consecutive accesses. Unlike existing methods that have substantial associated costs, our access counters exhibit no identifiable overhead in standard benchmarks despite their increased accuracy.
(4) Finally, we introduce a tiering algorithm that optimizes the data placement for a given memory budget. In the TPC-H benchmark, this allows us to move 90% of the data to NVM while the throughput is reduced by only 10.8% and the query latency is increased by 11.6%. With this, we outperform approaches that ignore the workload's access skew and access patterns and increase the query latency by 20% or more.
Individually, our contributions provide novel approaches to current challenges in systems engineering and database research. Combining them allows IMDBs to scale past the limits of DRAM while continuing to profit from the benefits of in-memory computing.