Refine
Has Fulltext
- yes (11)
Year of publication
Document Type
- Doctoral Thesis (5)
- Article (2)
- Master's Thesis (2)
- Monograph/Edited Volume (1)
- Part of Periodical (1)
Language
- German (5)
- English (5)
- Multiple languages (1)
Is part of the Bibliography
- yes (11) (remove)
Keywords
- Datenbank (11) (remove)
The past decades are characterized by various efforts to provide complete sequence information of genomes regarding various organisms. The availability of full genome data triggered the development of multiplex high-throughput assays allowing simultaneous measurement of transcripts, proteins and metabolites. With genome information and profiling technologies now in hand a highly parallel experimental biology is offering opportunities to explore and discover novel principles governing biological systems. Understanding biological complexity through modelling cellular systems represents the driving force which today allows shifting from a component-centric focus to integrative and systems level investigations. The emerging field of systems biology integrates discovery and hypothesis-driven science to provide comprehensive knowledge via computational models of biological systems. Within the context of evolving systems biology, investigations were made in large-scale computational analyses on transcript co-response data through selected prokaryotic and plant model organisms. CSB.DB - a comprehensive systems-biology database - (http://csbdb.mpimp-golm.mpg.de/) was initiated to provide public and open access to the results of biostatistical analyses in conjunction with additional biological knowledge. The database tool CSB.DB enables potential users to infer hypothesis about functional interrelation of genes of interest and may serve as future basis for more sophisticated means of elucidating gene function. The co-response concept and the CSB.DB database tool were successfully applied to predict operons in Escherichia coli by using the chromosomal distance and transcriptional co-responses. Moreover, examples were shown which indicate that transcriptional co-response analysis allows identification of differential promoter activities under different experimental conditions. The co-response concept was successfully transferred to complex organisms with the focus on the eukaryotic plant model organism Arabidopsis thaliana. The investigations made enabled the discovery of novel genes regarding particular physiological processes and beyond, allowed annotation of gene functions which cannot be accessed by sequence homology. GMD - the Golm Metabolome Database - was initiated and implemented in CSB.DB to integrated metabolite information and metabolite profiles. This novel module will allow addressing complex biological questions towards transcriptional interrelation and extent the recent systems level quest towards phenotyping.
From its first use in the field of biochemistry, instrumental analysis offered a variety of invaluable tools for the comprehensive description of biological systems. Multi-selective methods that aim to cover as many endogenous compounds as possible in biological samples use different analytical platforms and include methods like gene expression profile and metabolite profile analysis. The enormous amount of data generated in application of profiling methods needs to be evaluated in a manner appropriate to the question under investigation. The new field of system biology rises to the challenge to develop strategies for collecting, processing, interpreting, and archiving this vast amount of data; to make those data available in form of databases, tools, models, and networks to the scientific community. On the background of this development a multi-selective method for the determination of phytohormones was developed and optimised, complementing the profile analyses which are already in use (Chapter I). The general feasibility of a simultaneous analysis of plant metabolites and phytohormones in one sample set-up was tested by studies on the analytical robustness of the metabolite profiling protocol. The recovery of plant metabolites proved to be satisfactory robust against variations in the extraction protocol by using common extraction procedures for phytohormones; a joint extraction of metabolites and hormones from plant tissue seems practicable (Chapter II). Quantification of compounds within the context of profiling methods requires particular scrutiny (Chapter II). In Chapter III, the potential of stable-isotope in vivo labelling as normalisation strategy for profiling data acquired with mass spectrometry is discussed. First promising results were obtained for a reproducible quantification by stable-isotope in vivo labelling, which was applied in metabolomic studies. In-parallel application of metabolite and phytohormone analysis to seedlings of the model plant Arabidopsis thaliana exposed to sulfate limitation was used to investigate the relationship between the endogenous concentration of signal elements and the ‘metabolic phenotype’ of a plant. An automated evaluation strategy was developed to process data of compounds with diverse physiological nature, such as signal elements, genes and metabolites – all which act in vivo in a conditional, time-resolved manner (Chapter IV). Final data analysis focussed on conditionality of signal-metabolome interactions.
In order to function properly, organisms have a complex control mechanism, in which a given gene is expressed at a particular time and place. One way to achieve this control is to regulate the initiation of transcription. This step requires the assembly of several components, i.e., a basal/general machinery common to all expressed genes, and a specific/regulatory machinery, which differs among genes and is the responsible for proper gene expression in response to environmental or developmental signals. This specific machinery is composed of transcription factors (TFs), which can be grouped into evolutionarily related gene families that possess characteristic protein domains. In this work we have exploited the presence of protein domains to create rules that serve for the identification and classification of TFs. We have modelled such rules as a bipartite graph, where families and protein domains are represented as nodes. Connections between nodes represent that a protein domain should (required rule) or should not (forbidden rule) be present in a protein to be assigned into a TF family. Following this approach we have identified putative complete sets of TFs in plant species, whose genome is completely sequenced: Cyanidioschyzon merolae (red algae), Chlamydomonas reinhardtii (green alga), Ostreococcus tauri (green alga), Physcomitrella patens (moss), Arabidopsis thaliana (thale cress), Populus trichocarpa (black cottonwood) and Oryza sativa (rice). The identification of the complete sets of TFs in the above-mentioned species, as well as additional information and reference literature are available at http://plntfdb.bio.uni-potsdam.de/. The availability of such sets allowed us performing detailed evolutionary studies at different levels, from a single family to all TF families in different organisms in a comparative genomics context. Notably, we uncovered preferential expansions in different lineages, paving the way to discover the specific biological roles of these proteins under different conditions. For the basic leucine zipper (bZIP) family of TFs we were able to infer that in the most recent common ancestor (MRCA) of all green plants there were at least four bZIP genes functionally involved in oxidative stress and unfolded protein responses that are bZIP-mediated processes in all eukaryotes, but also in light-dependent regulations. The four founder genes amplified and diverged significantly, generating traits that benefited the colonization of new environments. Currently, following the approach described above, up to 57 TF and 11 TR families can be identified, which are among the most numerous transcription regulatory families in plants. Three families of putative TFs predate the split between rhodophyta (red algae) and chlorophyta (green algae), i.e., G2-like, PLATZ, and RWPRK, and may have been of particular importance for the evolution of eukaryotic photosynthetic organisms. Nine additional families, i.e., ABI3/VP1, AP2-EREBP, ARR-B, C2C2-CO-like, C2C2-Dof, PBF-2-like/Whirly, Pseudo ARR-B, SBP, and WRKY, predate the split between green algae and streptophytes. The identification of putative complete list of TFs has also allowed the delineation of lineage-specific regulatory families. The families SBP, bHLH, SNF2, MADS, WRKY, HMG, AP2-EREBP and FHA significantly differ in size between algae and land plants. The SBP family of TFs is significantly larger in C. reinhardtii, compared to land plants, and appears to have been lost in the prasinophyte O. tauri. The families bHLH, SNF2, MADS, WRKY, HMG, AP2-EREBP and FHA preferentially expanded with the colonisation of land, and might have played an important role in this great moment in evolution. Later, after the split of bryophytes and tracheophytes, the families MADS, AP2-EREBP, NAC, AUX/IAA, PHD and HRT have significantly larger numbers in the lineage leading to seed plants. We identified 23 families that are restricted to land plants and that might have played an important role in the colonization of this new habitat. Based on the list of TFs in different species we have started to develop high-throughput experimental platforms (in rice and C. reinhardtii) to monitor gene expression changes of TF genes under different genetic, developmental or environmental conditions. In this work we present the monitoring of Arabidopsis thaliana TFs during the onset of senescence, a process that leads to cell and tissue disintegration in order to redistribute nutrients (e.g. nitrogen) from leaves to reproductive organs. We show that the expression of 185 TF genes changes when leaves develop from half to fully expanded leaves and finally enter partial senescence. 76% of these TFs are down-regulated during senescence, the remaining are up-regulated. The identification of TFs in plants in a comparative genomics setup has proven fruitful for the understanding of evolutionary processes and contributes to the elucidation of complex developmental programs.
Mit Blick auf die schwierige bibliographische Erfassung des Humboldtschen Œuvres sind die Bibliographien zu den selbständigen sowie den unselbständigen Schriften - das eine als Buch, das andere als Online-Datenbank - unersetzliche Hilfsmittel in der Alexander-von-Humboldt-Forschung. Bisher noch nicht erschlossen wurde die Verfügbarkeit digitaler Humboldt-Faksimile im Netz, wozu diese Arbeit einen ersten Beitrag leisten will. Ausgehend von der Systematik der Bibliographie von Fiedler/Leitner werden hier nach jetzigem Kenntnisstand 140 selbständig erschienene Schriften bibliographisch erfasst, wobei die Verfasser das Projekt in Zukunft auf der seit Juni 2009 aktiven Informationsplattform avhumboldt.de - Alexander von Humboldt Informationen online weiterführen und als digitalen Zugang zu den Texten des Mannes aufbereiten wollen, dem es stets daran gelegen war, mit seinem Werk zu einer Demokratisierung des Wissens beizutragen.
Inhalt:
- Frank Holl: Vorwort / Prefacio
- Ottmar Ette: Entre mundos - vías de Alexander von Humboldt hacia la conciencia universal
- Eberhard Knobloch: Alexander von Humboldts Weltbild
- José Ángel Rodríguez: El culto a Humboldt en Venezuela
- Christian Durisch Acosta: Die Humboldt-Rezeption in Ecuador - ein kulturgeschichtlicher Beitrag zum ecuadorianischen Nationsbildungsprozess
- César W. Astuhuamán Gonzáles: Incas, Jívaros y la obra de Humboldt Vues des Cordillères
- José Enrique Covarrubias: La recepción de la figura y obra de Humboldt en México 1821-2000
- Helga von Kügelgen: Klassizismus und vergleichendes Sehen in den Vues des Cordillères
- Hector Pérez Brignoli: Alexander von Humboldt en Centroamérica y en el Río de la Plata
- Tobias Kraft und Katharina Einert: Das ganze Werk in einem Netz? Bibliographie online verfügbarer Alexander-von-Humboldt-Digitalisate
Die Komplexität heutiger Geschäftsabläufe und die Menge der zu verwaltenden Daten stellen hohe Anforderungen an die Entwicklung und Wartung von Geschäftsanwendungen. Ihr Umfang entsteht unter anderem aus der Vielzahl von Modellentitäten und zugehörigen Nutzeroberflächen zur Bearbeitung und Analyse der Daten. Dieser Bericht präsentiert neuartige Konzepte und deren Umsetzung zur Vereinfachung der Entwicklung solcher umfangreichen Geschäftsanwendungen. Erstens: Wir schlagen vor, die Datenbank und die Laufzeitumgebung einer dynamischen objektorientierten Programmiersprache zu vereinen. Hierzu organisieren wir die Speicherstruktur von Objekten auf die Weise einer spaltenorientierten Hauptspeicherdatenbank und integrieren darauf aufbauend Transaktionen sowie eine deklarative Anfragesprache nahtlos in dieselbe Laufzeitumgebung. Somit können transaktionale und analytische Anfragen in derselben objektorientierten Hochsprache implementiert werden, und dennoch nah an den Daten ausgeführt werden. Zweitens: Wir beschreiben Programmiersprachkonstrukte, welche es erlauben, Nutzeroberflächen sowie Nutzerinteraktionen generisch und unabhängig von konkreten Modellentitäten zu beschreiben. Um diese abstrakte Beschreibung nutzen zu können, reichert man die Domänenmodelle um vormals implizite Informationen an. Neue Modelle müssen nur um einige Informationen erweitert werden um bereits vorhandene Nutzeroberflächen und -interaktionen auch für sie verwenden zu können. Anpassungen, die nur für ein Modell gelten sollen, können unabhängig vom Standardverhalten, inkrementell, definiert werden. Drittens: Wir ermöglichen mit einem weiteren Programmiersprachkonstrukt die zusammenhängende Beschreibung von Abläufen der Anwendung, wie z.B. Bestellprozesse. Unser Programmierkonzept kapselt Nutzerinteraktionen in synchrone Funktionsaufrufe und macht somit Prozesse als zusammenhängende Folge von Berechnungen und Interaktionen darstellbar. Viertens: Wir demonstrieren ein Konzept, wie Endnutzer komplexe analytische Anfragen intuitiver formulieren können. Es basiert auf der Idee, dass Endnutzer Anfragen als Konfiguration eines Diagramms sehen. Entsprechend beschreibt ein Nutzer eine Anfrage, indem er beschreibt, was sein Diagramm darstellen soll. Nach diesem Konzept beschriebene Diagramme enthalten ausreichend Informationen, um daraus eine Anfrage generieren zu können. Hinsichtlich der Ausführungsdauer sind die generierten Anfragen äquivalent zu Anfragen, die mit konventionellen Anfragesprachen formuliert sind. Das Anfragemodell setzen wir in einem Prototypen um, der auf den zuvor eingeführten Konzepten aufsetzt.
Der internationale Standard CityGML ist zu einer zentralen Schnittstelle für die geometrische wie semantische Beschreibung von 3D-Stadtmodellen geworden. Das Institut für Geodäsie und Geoinformationstechnik (IGG) der Technischen Universität Berlin leistet mit ihren Entwicklung der 3D City Database und der Importer/Exporter Software einen entscheidenden Beitrag die Komplexität von CityGML-Daten in einer Geodatenbank intuitiv und effizient nutzen zu können. Die Software des IGG ist Open Source, unterstützte mit Oracle Spatial (ab Version 10g) aber bisher nur ein proprietäres Datenbank Management System (DBMS). Im Rahmen dieser Masterarbeit wurde eine Portierung auf die freie Datenbank-Software PostgreSQL/PostGIS vorgenommen und mit der Performanz der Oracle-Version verglichen. PostGIS gilt als eine der ausgereiftesten Geodatenbanken und wurde in diesem Jahr mit dem Release der Version 2.0 nochmals um zahlreiche Funktionen und Features (u.a. auch 3D-Unterstützung) erweitert. Die Ergebnisse des Vergleiches sowie die umfangreiche Gegenüberstellung aller verwendeten Konzepte (SQL, PL, Java) geben Aufschluss auf die Charakteristika beider räumlicher DBMS und ermöglichen einen Erkenntnisgewinn über die Projektgrenzen hinaus.
Jeden Tag werden unzählige Mengen an medizinischen Patientendaten in Krankenhäusern und Arztpraxen digital gespeichert. Für Forschungszwecke werden diese Daten bisher größtenteils nicht verwendet. Ziel dieser Arbeit ist es täglich anfallende anonymisierte Patientendaten, die aus einer Praxis für ganzheitliche Innere Medizin stammen, zu analysieren. Aufgrund mangelnder Kooperation seitens des Anbieters der Praxissoftware konnten die Patientendaten nicht automatisch extrahiert werden. Daher wurde eine Auswahl an Diagnosen und anthropometrischen Parametern manuell in eine Datenbank übertragen. Informationen über die Behandlung wurden dabei nicht berücksichtigt. Data-Mining Verfahren ermöglichen die Forschung auf der Grundlage von alltäglichen Patientendaten. Durch die Anwendung maschinellen Lernens kann Präventionsmedizin und die Überwachung von Behandlungsverläufen unterstützt werden.
Das Potenzial der Analyse dieser sonst weitgehend ungenutzten Daten wird anhand von Untersuchungen zur Komorbidität verdeutlicht. Dabei zeigt sich, dass einerseits das Metabolische Syndrom und dessen Komponenten zusammen mit Krebserkrankungen ein Cluster bilden und andererseits psychosomatische Störungen vermehrt mit Autoimmunerkrankungen der Schilddrüse auftreten. Außerdem wird eine noch nicht schulmedizinisch anerkannte Stoffwechselerkrankung, die Hämopyrrollaktamurie (HPU) untersucht. Diese lässt sich durch eine vermehrte Ausscheidung von Pyrrolen im Urin nachweisen. Bezüglich der Patienten bei denen ein HPU-Test vorliegt, weisen 84 % einen erhöhten Titer auf. Diese Beobachtung steht im Widerspruch zur vorherigen Annahme, dass in etwa 10 % der Bevölkerung von HPU betroffen sind.
Präventives Handeln ermöglicht es Gesundheit zu erhalten. Zu diesem Zweck ist es notwen- dig Krankheiten möglichst früh zu erkennen. In dieser Studie können Entscheidungsbaum-Modelle die Hashimoto Thyreoiditis mit einer Genauigkeit von 87.5 % bei einem Patienten diagnostizieren. Defizite durch die fehlenden Informationen über die medikamentöse Behandlung werden anhand des Modells zur Vorhersage von Hypothyreoiditis (Genauigkeit von 60.9 %) aufgezeigt.
Mit Hilfe von STATIS, das auf einer Erweiterung der Hauptkomponentenanalyse basiert, die es ermöglicht mehrere Tabellen simultan zu vergleichen, wurde der Behandlungsverlauf von 20 Patienten über einen Zeitraum von fünf Jahren überwacht. Anhand von Hypertonie wird gezeigt, dass sich sich die Patenten bezüglich Ihrer Laborwerte voneinander unterscheiden und sich Muster für Krankheiten erkennen lassen.
Diese Arbeit demonstriert den Nutzen, der durch die vermehrte Analyse alltäglicher hochdimensionaler und heterogener Daten erbracht werden kann.
Forschendes Lernen im literaturwissenschaftlichen Projektseminar „Vom Problem zur Publikation“
(2020)
Das Forschende Lernen gehört zu den gegenwärtig stark diskutierten hochschuldidaktischen Ansätzen. Seine Überführung in die universitäre Praxis ist jedoch mit besonderen Herausforderungen verbunden. Am Beispiel eines germanistischen Masterseminars werden Konzeption, Durchführung und Evaluation eines diesem Ansatz folgenden Projektseminars vorgestellt und neben dem hohen motivationalen Effekt (Studierenden- Evaluation) auch Probleme bei der Vereinbarkeit von selbstbestimmter Forschungstätigkeit, curricularer Struktur und wissenschaftlich relevantem Ergebnis (Lehrenden-Evaluation) erläutert.
The amount of data stored in databases and the complexity of database workloads are ever- increasing. Database management systems (DBMSs) offer many configuration options, such as index creation or unique constraints, which must be adapted to the specific instance to efficiently process large volumes of data. Currently, such database optimization is complicated, manual work performed by highly skilled database administrators (DBAs). In cloud scenarios, manual database optimization even becomes infeasible: it exceeds the abilities of the best DBAs due to the enormous number of deployed DBMS instances (some providers maintain millions of instances), missing domain knowledge resulting from data privacy requirements, and the complexity of the configuration tasks.
Therefore, we investigate how to automate the configuration of DBMSs efficiently with the help of unsupervised database optimization. While there are numerous configuration options, in this thesis, we focus on automatic index selection and the use of data dependencies, such as functional dependencies, for query optimization. Both aspects have an extensive performance impact and complement each other by approaching unsupervised database optimization from different perspectives.
Our contributions are as follows: (1) we survey automated state-of-the-art index selection algorithms regarding various criteria, e.g., their support for index interaction. We contribute an extensible platform for evaluating the performance of such algorithms with industry-standard datasets and workloads. The platform is well-received by the community and has led to follow-up research. With our platform, we derive the strengths and weaknesses of the investigated algorithms. We conclude that existing solutions often have scalability issues and cannot quickly determine (near-)optimal solutions for large problem instances. (2) To overcome these limitations, we present two new algorithms. Extend determines (near-)optimal solutions with an iterative heuristic. It identifies the best index configurations for the evaluated benchmarks. Its selection runtimes are up to 10 times lower compared with other near-optimal approaches. SWIRL is based on reinforcement learning and delivers solutions instantly. These solutions perform within 3 % of the optimal ones. Extend and SWIRL are available as open-source implementations.
(3) Our index selection efforts are complemented by a mechanism that analyzes workloads to determine data dependencies for query optimization in an unsupervised fashion. We describe and classify 58 query optimization techniques based on functional, order, and inclusion dependencies as well as on unique column combinations. The unsupervised mechanism and three optimization techniques are implemented in our open-source research DBMS Hyrise. Our approach reduces the Join Order Benchmark’s runtime by 26 % and accelerates some TPC-DS queries by up to 58 times.
Additionally, we have developed a cockpit for unsupervised database optimization that allows interactive experiments to build confidence in such automated techniques. In summary, our contributions improve the performance of DBMSs, support DBAs in their work, and enable them to contribute their time to other, less arduous tasks.