TY - GEN A1 - Nishikawa, Ken-Ichi A1 - Mizuno, Yosuke A1 - Niemiec, Jacek A1 - Kobzar, Oleh A1 - Pohl, Martin A1 - Gómez, Jose L. A1 - Duţan, Ioana A1 - Pe’er, Asaf A1 - Frederiksen, Jacob Trier A1 - Nordlund, Åke A1 - Meli, Athina A1 - Sol, Helene A1 - Hardee, Philip E. A1 - Hartmann, Dieter H. T1 - Microscopic processes in global relativistic jets containing helical magnetic fields T2 - Galaxies N2 - In the study of relativistic jets one of the key open questions is their interaction with the environment on the microscopic level. Here, we study the initial evolution of both electron-proton (e(-)-p(+)) and electron-positron (e(+/-)) relativistic jets containing helical magnetic fields, focusing on their interaction with an ambient plasma. We have performed simulations of "global" jets containing helical magnetic fields in order to examine how helical magnetic fields affect kinetic instabilities such as the Weibel instability, the kinetic Kelvin-Helmholtz instability (kKHI) and the Mushroom instability (MI). In our initial simulation study these kinetic instabilities are suppressed and new types of instabilities can grow. In the e(-)-p(+) jet simulation a recollimation-like instability occurs and jet electrons are strongly perturbed. In the e(+/-) jet simulation a recollimation-like instability occurs at early times followed by a kinetic instability and the general structure is similar to a simulation without helical magnetic field. Simulations using much larger systems are required in order to thoroughly follow the evolution of global jets containing helical magnetic fields. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 446 KW - relativistic jets KW - particle-in-cell simulations KW - global jets KW - helical magnetic fields KW - kinetic instabilities KW - kink instability Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407604 ER - TY - THES A1 - Gutsch, Martin T1 - Model-based analysis of climate change impacts on the productivity of oak-pine forests in Brandenburg T1 - Modell-basierte Analyse der Auswirkungen des Klimawandels auf die Produktivität von Eichen-Kiefern-Mischbeständen in Brandenburg N2 - The relationship between climate and forest productivity is an intensively studied subject in forest science. This Thesis is embedded within the general framework of future forest growth under climate change and its implications for the ongoing forest conversion. My objective is to investigate the future forest productivity at different spatial scales (from a single specific forest stand to aggregated information across Germany) with focus on oak-pine forests in the federal state of Brandenburg. The overarching question is: how are the oak-pine forests affected by climate change described by a variety of climate scenarios. I answer this question by using a model based analysis of tree growth processes and responses to different climate scenarios with emphasis on drought events. In addition, a method is developed which considers climate change uncertainty of forest management planning. As a first 'screening' of climate change impacts on forest productivity, I calculated the change in net primary production on the base of a large set of climate scenarios for different tree species and the total area of Germany. Temperature increases up to 3 K lead to positive effects on the net primary production of all selected tree species. But, in water-limited regions this positive net primary production trend is dependent on the length of drought periods which results in a larger uncertainty regarding future forest productivity. One of the regions with the highest uncertainty of net primary production development is the federal state of Brandenburg. To enhance the understanding and ability of model based analysis of tree growth sensitivity to drought stress two water uptake approaches in pure pine and mixed oak-pine stands are contrasted. The first water uptake approach consists of an empirical function for root water uptake. The second approach is more mechanistic and calculates the differences of soil water potential along a soil-plant-atmosphere continuum. I assumed the total root resistance to vary at low, medium and high total root resistance levels. For validation purposes three data sets on different tree growth relevant time scales are used. Results show that, except the mechanistic water uptake approach with high total root resistance, all transpiration outputs exceeded observed values. On the other hand high transpiration led to a better match of observed soil water content. The strongest correlation between simulated and observed annual tree ring width occurred with the mechanistic water uptake approach and high total root resistance. The findings highlight the importance of severe drought as a main reason for small diameter increment, best supported by the mechanistic water uptake approach with high root resistance. However, if all aspects of the data sets are considered no approach can be judged superior to the other. I conclude that the uncertainty of future productivity of water-limited forest ecosystems under changing environmental conditions is linked to simulated root water uptake. Finally my study aimed at the impacts of climate change combined with management scenarios on an oak-pine forest to evaluate growth, biomass and the amount of harvested timber. The pine and the oak trees are 104 and 9 years old respectively. Three different management scenarios with different thinning intensities and different climate scenarios are used to simulate the performance of management strategies which explicitly account for the risks associated with achieving three predefined objectives (maximum carbon storage, maximum harvested timber, intermediate). I found out that in most cases there is no general management strategy which fits best to different objectives. The analysis of variance in the growth related model outputs showed an increase of climate uncertainty with increasing climate warming. Interestingly, the increase of climate-induced uncertainty is much higher from 2 to 3 K than from 0 to 2 K. N2 - Diese Arbeit befasst sich mit der Modellierung der Produktivität von Eichen-Kiefern Mischbeständen mit besonderem Fokus auf das Bundesland Brandenburg. Es werden drei Hauptfragen bearbeitet: a) wie verhält sich die Produktivität der beiden Baumarten im Vergleich zu den beiden anderen Hauptbaumarten Fichte und Buche im gesamtdeutschen Vergleich unter verschiedenen Klimaszenarien, b) wie wichtig ist der Prozess der Wasseraufnahme über die Wurzeln bei der Modellierung der Produktivität unter Bedingungen von Trockenjahren, c) wie lassen sich Unsicherheiten durch Bewirtschaftung und Klimaszenarien in der Modellierung der Eichen-Kiefern Mischbestände und bei nachfolgenden Entscheidungsprozessen berücksichtigen? Der methodische Schwerpunkt der Arbeit liegt auf der Modellierung. Im ersten Teil der Arbeit werden mit Hilfe von verschiedenen unabhängigen Umweltvariablen des Klimas und des Bodens Wirkungsbeziehungen zur Produktivität ermittelt, die Aussagen zur Veränderung der Produktivität in Abhängigkeit dieser Umweltvariablen erlauben. Damit können verschiedene Regionen in Deutschland auf ihre Sensitivität der Produktivität gegenüber verschiedenen Klimaszenarien hin untersucht werden. Im zweiten Teil werden innerhalb eines prozess-basierten Waldwachstumsmodell 4C zwei unterschiedliche Ansätze der Wasseraufnahme über die Wurzeln analysiert. Dabei werden Messdaten zur Transpiration, zu Bodenwassergehalten und zu Durchmesserzuwächsen auf Basis von Jahrringchronologien zur Überprüfung herangezogen. Der erste Ansatz ist eine empirisch abgeleitete Gleichung, die die Wasseraufnahme in Abhängigkeit des Wassergehalts beschreibt. Der zweite Ansatz berücksichtigt die unterschiedlichen Druckpotenziale sowie einzelne Widerstände entlang des Wasserflusses vom Boden über die Pflanze in die Atmosphäre. Im dritten Teil der Arbeit wird das Waldwachstumsmodell angewendet und eine Auswahlmethodik vorgestellt, die Entscheidungen bei Unsicherheit erlaubt. Dabei werden die vorhandenen Unsicherheiten, hervorgerufen durch Bewirtschaftung und Klima, in den Prozess der Entscheidungsfindung quantitativ mit einbezogen. Drei verschiedene Bewirtschaftungsstrategien, die unterschiedliche Durchforstungsstärken beinhalten, werden simuliert und ihr Erreichen von drei vorher festgelegten Ziele (maximale Kohlenstoffspeicherung im Bestand, maximale Holzernte, moderates Ziel hinsichtlich Kohlenstoffspeicherung und Holzernte) untersucht. Bezogen auf die erste Frage ergibt die Arbeit zwei wesentliche Ergebnisse. Eine Temperaturerhöhung bis zu drei Kelvin bis 2060 führt zu positiven Ergebnissen in der Produktivität von Eichen-, Kiefern-, Buchen- und Fichtenbeständen. Allerdings ist in niederschlagsarmen Regionen, wie im nordostdeutschen Tiefland, dieser positive Trend stark abhängig von der Länge der Trockenperioden innerhalb der Vegetationszeit. Demzufolge ist die Produktivitätsveränderung der vier Baumarten im Land Brandenburg mit der höchsten Unsicherheit im Vergleich zu den anderen Bundesländern verbunden. Zur zweiten Frage gibt die Arbeit zwei wesentliche Ergebnisse. Im Vergleich mit den Messdaten auf unterschiedlicher zeitlicher und physiologischer Ebene kann kein Ansatz ermittelt werden, der jeweils das bessere Ergebnis erzielt. Im Vergleich von Transpiration, Bodenwassergehalt und Trockenjahren ergeben sich zwar etwas bessere Ergebnisse für den prozess-basierten gegenüber dem empirischen Ansatz, doch sind diese sehr stark abhängig vom angenommenen Wurzelwiderstand. Dieser ist schwer zu bestimmen und verhindert bisher eine breite Anwendung des Ansatzes innerhalb der Waldwachstumsmodelle. Hier ist weiterer Forschungsbedarf vorhanden um bei der Modellierung der Auswirkungen von Trockenjahren auf die Produktivität die Modellunsicherheit zu verringern. Für die letzte Frage ergeben sich ebenso interessante Ergebnisse. Keine Durchforstungsstrategie kann alle drei Zielstellungen erfüllen. Die Methodik erlaubt aber ein großes Maß an Objektivität beim Vergleich der unterschiedlichen Bewirtschaftungsstrategien unter der Unsicherheit der Klimaszenarien. Die Varianz, bezogen auf Ergebnisse zur Bestandesbiomasse, Holzernte und zum jährlichen Holzzuwachs, steigt mit steigender Klimaerwärmung. Dabei ist der Anstieg in der Varianz größer bei einem Temperaturanstieg von zwei Kelvin auf drei Kelvin als von null Kelvin auf zwei Kelvin. Das heißt, Auswirkungen einer Klimaerwärmung verlaufen hier nicht linear. KW - climate change KW - forest management KW - forest growth modelling KW - scenario analysis KW - water uptake KW - Klimawandel KW - Klimaauswirkung KW - Forstwirtschaft KW - Waldbewirtschaftung KW - Waldwachstumsmodellierung KW - Unsicherheit Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-97241 ER - TY - THES A1 - Wätzoldt, Sebastian T1 - Modeling collaborations in adaptive systems of systems T1 - Modellierung von Kollaborationen für adaptive Systeme von Systemen N2 - Recently, due to an increasing demand on functionality and flexibility, beforehand isolated systems have become interconnected to gain powerful adaptive Systems of Systems (SoS) solutions with an overall robust, flexible and emergent behavior. The adaptive SoS comprises a variety of different system types ranging from small embedded to adaptive cyber-physical systems. On the one hand, each system is independent, follows a local strategy and optimizes its behavior to reach its goals. On the other hand, systems must cooperate with each other to enrich the overall functionality to jointly perform on the SoS level reaching global goals, which cannot be satisfied by one system alone. Due to difficulties of local and global behavior optimizations conflicts may arise between systems that have to be solved by the adaptive SoS. This thesis proposes a modeling language that facilitates the description of an adaptive SoS by considering the adaptation capabilities in form of feedback loops as first class entities. Moreover, this thesis adopts the Models@runtime approach to integrate the available knowledge in the systems as runtime models into the modeled adaptation logic. Furthermore, the modeling language focuses on the description of system interactions within the adaptive SoS to reason about individual system functionality and how it emerges via collaborations to an overall joint SoS behavior. Therefore, the modeling language approach enables the specification of local adaptive system behavior, the integration of knowledge in form of runtime models and the joint interactions via collaboration to place the available adaptive behavior in an overall layered, adaptive SoS architecture. Beside the modeling language, this thesis proposes analysis rules to investigate the modeled adaptive SoS, which enables the detection of architectural patterns as well as design flaws and pinpoints to possible system threats. Moreover, a simulation framework is presented, which allows the direct execution of the modeled SoS architecture. Therefore, the analysis rules and the simulation framework can be used to verify the interplay between systems as well as the modeled adaptation effects within the SoS. This thesis realizes the proposed concepts of the modeling language by mapping them to a state of the art standard from the automotive domain and thus, showing their applicability to actual systems. Finally, the modeling language approach is evaluated by remodeling up to date research scenarios from different domains, which demonstrates that the modeling language concepts are powerful enough to cope with a broad range of existing research problems. N2 - Seit einiger Zeit führen ein ansteigender Bedarf nach erweiterter Systemfunktionalität und deren flexible Verwendung zu vernetzten Systemen, die sich zu einem übergeordneten adaptiven System von Systemen (SoS) zusammenschließen. Dieser SoS Zusammenschluss zeigt ein gewünschtes, robustes und flexibles Gesamtverhalten, welches sich aus der Funktionalität der einzelnen Systeme zusammensetzt. Das SoS beinhaltet eine Vielzahl von verschiedenen Systemarten, die sich von eingebetteten bis hin zu Cyber-Physical Systems erstrecken. Einerseits optimiert jedes einzelne System sein Verhalten bezüglich lokaler Ziele. Anderseits müssen die Systeme miteinander interagieren, um neue, zusammengesetzte Funktionalitäten bereitzustellen und damit vorgegebene SoS Ziele zu erreichen, welche durch ein einzelnes System nicht erfüllt werden können. Die Schwierigkeit besteht nun darin, Konflikte zwischen lokalen und globalen Verhaltensstrategien zwischen Systemen innerhalb des SoS zu beseitigen. Diese Doktorarbeit stellt eine Modellierungssprache vor, welche für die Beschreibung von adaptiven SoS geeignet ist. Dabei berücksichtigt die Modellierungssprache die Adaptionslogik des SoS in Form von periodischen Adaptationsschleifen als primäres Sprachkonstrukt. Außerdem übernimmt diese Arbeit den Models@runtime Ansatz, um verfügbares Systemwissen als Laufzeitmodelle in die Adaptationslogik des Systems zu integrieren. Weiterhin liegt der Fokus der Modellierungssprache auf der Beschreibung von Systeminteraktionen innerhalb des SoS. Dies ermöglicht Schlussfolgerungen von individuellem Systemverhalten sowie deren Aggregation zu kollaborativem Verhalten im Kontext von Systeminteraktionen im SoS. Damit unterstützt die entwickelte Modellierungssprache die Beschreibung von lokalem adaptivem Verhalten, die Integration von Wissen über die Modellierung von Laufzeitmodellen und Systeminteraktionen in Form von kollaborativem Verhalten. Alle drei Aspekte werden in die adaptive SoS Architektur integriert. Neben der entwickelten Modellierungssprache führt diese Doktorarbeit Analyseregeln zur Untersuchung des modellierten SoS ein. Diese Regeln ermöglichen die Erkennung von Architekturmustern und möglichen Schwächen im Systementwurf. Zusätzlich wird eine Simulationsumgebung für die Modellierungssprache präsentiert, welche die direkte Ausführung von einer modellierten SoS Architektur erlaubt. Die Analyseregeln und die Simulationsumgebung dienen demnach sowohl der Verifizierung von Systeminteraktionen als auch der spezifizierten Adaptationslogik innerhalb des SoS. Die vorliegende Arbeit implementiert die vorgestellten Konzepte der Modellierungssprache durch deren Abbildung auf einen aktuellen Standard im Automobilbereich und zeigt damit die Anwendbarkeit der Sprache auf gegenwärtige Systeme. Zum Schluss findet eine Evaluierung der Modellierungssprache statt, wobei aktuelle Forschungsszenarien aus unterschiedlichen Bereichen erneut mit der vorgestellten Sprache modelliert werden. Dies zeigt, dass die Modellierungskonzepte geeignet sind, um weite Bereiche existierender Forschungsprobleme zu bewältigen. KW - deurema modeling language KW - adaptive systems KW - systems of systems KW - runtime models KW - feedback loop modeling KW - collaborations KW - Deurema Modellierungssprache KW - Kollaborationen KW - adaptive Systeme KW - Systeme von Systemen KW - Laufzeitmodelle KW - Feedback Loop Modellierung Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-97494 ER - TY - GEN A1 - Gliege, Steffen A1 - Thomas, Björn Daniel A1 - Steidl, Jörg A1 - Hohenbrink, Tobias Ludwig A1 - Dietrich, Ottfried T1 - Modeling the impact of ditch water level management on stream-aquifer interactions N2 - Decreasing groundwater levels in many parts of Germany and decreasing low flows in Central Europe have created a need for adaptation measures to stabilize the water balance and to increase low flows. The objective of our study was to estimate the impact of ditch water level management on stream-aquifer interactions in small lowland catchments of the mid-latitudes. The water balance of a ditch-irrigated area and fluxes between the subsurface and the adjacent stream were modeled for three runoff recession periods using the Hydrus-2D software package. The results showed that the subsurface flow to the stream was closely related to the difference between the water level in the ditch system and the stream. Evapotranspiration during the growing season additionally reduced base flow. It was crucial to stop irrigation during a recession period to decrease water withdrawal from the stream and enhance the base flow by draining the irrigated area. Mean fluxes to the stream were between 0.04 and 0.64 ls(-1) for the first 20 days of the low-flow periods. This only slightly increased the flow in the stream, whose mean was 57 ls(-1) during the period with the lowest flows. Larger areas would be necessary to effectively increase flows in mesoscale catchments. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 445 KW - ditch irrigation KW - adaption measure KW - Hydrus-2D KW - required minimum runoff KW - groundwater surface water interaction Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407613 ER - TY - THES A1 - Wichitsa-nguan, Korakot T1 - Modifications and extensions of the logistic regression and Cox model T1 - Modifikationen und Erweiterungen des logistischen Regressionsmodells und des Cox-Modells N2 - In many statistical applications, the aim is to model the relationship between covariates and some outcomes. A choice of the appropriate model depends on the outcome and the research objectives, such as linear models for continuous outcomes, logistic models for binary outcomes and the Cox model for time-to-event data. In epidemiological, medical, biological, societal and economic studies, the logistic regression is widely used to describe the relationship between a response variable as binary outcome and explanatory variables as a set of covariates. However, epidemiologic cohort studies are quite expensive regarding data management since following up a large number of individuals takes long time. Therefore, the case-cohort design is applied to reduce cost and time for data collection. The case-cohort sampling collects a small random sample from the entire cohort, which is called subcohort. The advantage of this design is that the covariate and follow-up data are recorded only on the subcohort and all cases (all members of the cohort who develop the event of interest during the follow-up process). In this thesis, we investigate the estimation in the logistic model for case-cohort design. First, a model with a binary response and a binary covariate is considered. The maximum likelihood estimator (MLE) is described and its asymptotic properties are established. An estimator for the asymptotic variance of the estimator based on the maximum likelihood approach is proposed; this estimator differs slightly from the estimator introduced by Prentice (1986). Simulation results for several proportions of the subcohort show that the proposed estimator gives lower empirical bias and empirical variance than Prentice's estimator. Then the MLE in the logistic regression with discrete covariate under case-cohort design is studied. Here the approach of the binary covariate model is extended. Proving asymptotic normality of estimators, standard errors for the estimators can be derived. The simulation study demonstrates the estimation procedure of the logistic regression model with a one-dimensional discrete covariate. Simulation results for several proportions of the subcohort and different choices of the underlying parameters indicate that the estimator developed here performs reasonably well. Moreover, the comparison between theoretical values and simulation results of the asymptotic variance of estimator is presented. Clearly, the logistic regression is sufficient for the binary outcome refers to be available for all subjects and for a fixed time interval. Nevertheless, in practice, the observations in clinical trials are frequently collected for different time periods and subjects may drop out or relapse from other causes during follow-up. Hence, the logistic regression is not appropriate for incomplete follow-up data; for example, an individual drops out of the study before the end of data collection or an individual has not occurred the event of interest for the duration of the study. These observations are called censored observations. The survival analysis is necessary to solve these problems. Moreover, the time to the occurence of the event of interest is taken into account. The Cox model has been widely used in survival analysis, which can effectively handle the censored data. Cox (1972) proposed the model which is focused on the hazard function. The Cox model is assumed to be λ(t|x) = λ0(t) exp(β^Tx) where λ0(t) is an unspecified baseline hazard at time t and X is the vector of covariates, β is a p-dimensional vector of coefficient. In this thesis, the Cox model is considered under the view point of experimental design. The estimability of the parameter β0 in the Cox model, where β0 denotes the true value of β, and the choice of optimal covariates are investigated. We give new representations of the observed information matrix In(β) and extend results for the Cox model of Andersen and Gill (1982). In this way conditions for the estimability of β0 are formulated. Under some regularity conditions, ∑ is the inverse of the asymptotic variance matrix of the MPLE of β0 in the Cox model and then some properties of the asymptotic variance matrix of the MPLE are highlighted. Based on the results of asymptotic estimability, the calculation of local optimal covariates is considered and shown in examples. In a sensitivity analysis, the efficiency of given covariates is calculated. For neighborhoods of the exponential models, the efficiencies have then been found. It is appeared that for fixed parameters β0, the efficiencies do not change very much for different baseline hazard functions. Some proposals for applicable optimal covariates and a calculation procedure for finding optimal covariates are discussed. Furthermore, the extension of the Cox model where time-dependent coefficient are allowed, is investigated. In this situation, the maximum local partial likelihood estimator for estimating the coefficient function β(·) is described. Based on this estimator, we formulate a new test procedure for testing, whether a one-dimensional coefficient function β(·) has a prespecified parametric form, say β(·; ϑ). The score function derived from the local constant partial likelihood function at d distinct grid points is considered. It is shown that the distribution of the properly standardized quadratic form of this d-dimensional vector under the null hypothesis tends to a Chi-squared distribution. Moreover, the limit statement remains true when replacing the unknown ϑ0 by the MPLE in the hypothetical model and an asymptotic α-test is given by the quantiles or p-values of the limiting Chi-squared distribution. Finally, we propose a bootstrap version of this test. The bootstrap test is only defined for the special case of testing whether the coefficient function is constant. A simulation study illustrates the behavior of the bootstrap test under the null hypothesis and a special alternative. It gives quite good results for the chosen underlying model. References P. K. Andersen and R. D. Gill. Cox's regression model for counting processes: a large samplestudy. Ann. Statist., 10(4):1100{1120, 1982. D. R. Cox. Regression models and life-tables. J. Roy. Statist. Soc. Ser. B, 34:187{220, 1972. R. L. Prentice. A case-cohort design for epidemiologic cohort studies and disease prevention trials. Biometrika, 73(1):1{11, 1986. N2 - In vielen statistischen Anwendungen besteht die Aufgabe darin, die Beziehung zwischen Einflussgrößen und einer Zielgröße zu modellieren. Die Wahl eines geeigneten Modells hängt vom Typ der Zielgröße und vom Ziel der Untersuchung ab - während lineare Modelle für die Beschreibung des Zusammenhanges stetiger Outputs und Einflussgrößen genutzt werden, dienen logistische Regressionsmodelle zur Modellierung binärer Zielgrößen und das Cox-Modell zur Modellierung von Lebendauer-Daten. In epidemiologischen, medizinischen, biologischen, sozialen und ökonomischen Studien wird oftmals die logistische Regression angewendet, um den Zusammenhang zwischen einer binären Zielgröße und den erklärenden Variablen, den Kovariaten, zu modellieren. In epidemiologischen Studien muss häufig eine große Anzahl von Individuen für eine lange Zeit beobachtet werden. Um hierbei Kosten zu reduzieren, wird ein "Case-Cohort-Design" angewendet. Hierbei werden die Einflussgrößen nur für die Individuen erfasst, für die das interessierende Ereignis eintritt, und für eine zufällig gewählte kleine Teilmenge von Individuen, die Subkohorte. In der vorliegenden Arbeit wird das Schätzen im logistischen Regressionsmodell unter Case-Cohort-Design betrachtet. Für den Fall, dass auch die Kovariate binär ist, wurde bereits von Prentice (1986) die asymptotische Normalität des Maximum-Likelihood-Schätzers für den Logarithmus des "odds ratio", einen Parameter, der den Effekt der Kovariate charakterisiert, angegeben. In dieser Arbeit wird über einen Maximum-Likelihood-Zugang ein Schätzer für die Varianz der Grenzverteilung hergeleitet, für den durch empirische Untersuchungen gezeigt wird, dass er dem von Prentice überlegen ist. Ausgehend von dem binärem Kovariate-Modell werden Maximum-Likelihood-Schätzer für logistische Regressionsmodelle mit diskreten Kovariaten unter Case-Cohort-Design hergeleitet. Die asymptotische Normalität wird gezeigt; darauf aufbauend können Formeln für die Standardfehler angegeben werden. Simulationsstudien ergänzen diesen Abschnitt. Sie zeigen den Einfluss des Umfanges der Subkohorte auf die Varianz der Schätzer. Logistische Regression ist geeignet, wenn man das interessierende Ereignis für alle Individuen beobachten kann und wenn man ein festes Zeitintervall betrachtet. Will man die Zeit bis zum Eintreten eines Ereignisses bei der Untersuchung der Wirkung der Kovariate berücksichtigen, so sind Lebensdauermodelle angemessen. Hierbei können auch zensierte Daten behandelt werden. Ein sehr häufig angewendetes Regressionsmodell ist das von Cox (1972) vorgeschlagene, bei dem die Hazardrate durch λ(t|x) = λ0(t) exp(β^Tx) definiert ist. Hierbei ist λ0(t) eine unspezifizierte Baseline-Hazardrate und X ist ein Kovariat-Vektor, β ist ein p-dimensionaler Koeffizientenvektor. Nachdem ein Überblick über das Schätzen und Testen im Cox-Modell und seinen Erweiterungen gegeben wird, werden Aussagen zur Schätzbarkeit des Parameters β durch die "partiallikelihood"- Methode hergeleitet. Grundlage hierzu sind neue Darstellungen der beobachteten Fisher-Information, die die Ergebnisse von Andersen and Gill (1982) erweitern. Unter Regularitätsbedingungen ist der Schätzer asymptotisch normal; die Inverse der Grenzmatrix der Fisher-Information ist die Varianzmatrix der Grenzverteilung. Bedingungen für die Nichtsingularität dieser Grenzmatrix führen zum Begriff der asymptotischen Schätzbarkeit, der in der vorliegenden Arbeit ausführlich untersucht wird. Darüber hinaus ist diese Matrix Grundlage für die Herleitung lokal optimaler Kovariate. In einer Sensitivitätsanalyse wird die Effizienz gewählter Kovariate berechnet. Die Berechnungen zeigen, dass die Baseline-Verteilung nur wenig Einfluss auf die Effizienz hat. Entscheidend ist die Wahl der Kovariate. Es werden einige Vorschläge für anwendbare optimale Kovariate und Berechnungsverfahren für das Auffinden optimaler Kovariate diskutiert. Eine Erweiterung des Cox-Modells besteht darin, zeitabhängige Koeffizienten zuzulassen. Da diese Koeffizientenfunktionen nicht näher spezifiziert sind, werden sie nichtparametrisch geschätzt. Eine mögliche Methode ist die "local-linear-partial-likelihood"-Methode, deren Eigenschaften beispielsweise in der Arbeit von Cai and Sun (2003) untersucht wurden. In der vorliegenden Arbeit werden Simulationen zu dieser Methode durchgeführt. Hauptaspekt ist das Testen der Koeffizientenfunktion. Getestet wird, ob diese Funktion eine bestimmte parametrische Form besitzt. Betrachtet wird der Score-Vektor, der von der "localconstant-partial-likelihood"-Funktion abgeleitet wird. Ausgehend von der asymptotischen Normalität dieses Vektors an verschiedenen Gitterpunkten kann gezeigt werden, dass die Verteilung der geeignet standardisierten quadratischen Form unter der Nullhypothese gegen eine Chi-Quadrat-Verteilung konvergiert. Die Eigenschaften des auf dieser Grenzverteilungsaussage aufbauenden Tests hängen nicht nur vom Stichprobenumfang, sondern auch vom verwendeten Glättungsparameter ab. Deshalb ist es sinnvoll, auch einen Bootstrap-Test zu betrachten. In der vorliegenden Arbeit wird ein Bootstrap-Test zum Testen der Hypothese, dass die Koeffizienten-Funktion konstant ist, d.h. dass das klassische Cox-Modell vorliegt, vorgeschlagen. Der Algorithmus wird angegeben. Simulationen zum Verhalten dieses Tests unter der Nullhypothese und einer speziellen Alternative werden durchgeführt. Literatur P. K. Andersen and R. D. Gill. Cox's regression model for counting processes: a large sample study. Ann. Statist., 10(4):1100{1120, 1982. Z. Cai and Y. Sun. Local linear estimation for time-dependent coefficients in Cox's regression models. Scand. J. Statist., 30(1):93-111, 2003. D. R. Cox. Regression models and life-tables. J. Roy. Statist. Soc. Ser. B, 34:187-220, 1972. R. L. Prentice. A case-cohort design for epidemiologic cohort studies and disease prevention trials. Biometrika, 73(1):1-11, 1986. KW - survival analysis KW - Cox model KW - logistic regression analysis KW - logistische Regression KW - Case-Cohort-Design KW - Cox-Modell Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-90033 ER - TY - GEN A1 - Navarro-Retamal, Carlos A1 - Bremer, Anne A1 - Alzate-Morales, Jans H. A1 - Caballero, Julio A1 - Hincha, Dirk K. A1 - González, Wendy A1 - Thalhammer, Anja T1 - Molecular dynamics simulations and CD spectroscopy reveal hydration-induced unfolding of the intrinsically disordered LEA proteins COR15A and COR15B from Arabidopsis thaliana N2 - The LEA (late embryogenesis abundant) proteins COR15A and COR15B from Arabidopsis thaliana are intrinsically disordered under fully hydrated conditions, but obtain α-helical structure during dehydration, which is reversible upon rehydration. To understand this unusual structural transition, both proteins were investigated by circular dichroism (CD) and molecular dynamics (MD) approaches. MD simulations showed unfolding of the proteins in water, in agreement with CD data obtained with both HIS-tagged and untagged recombinant proteins. Mainly intramolecular hydrogen bonds (H-bonds) formed by the protein backbone were replaced by H-bonds with water molecules. As COR15 proteins function in vivo as protectants in leaves partially dehydrated by freezing, unfolding was further assessed under crowded conditions. Glycerol reduced (40%) or prevented (100%) unfolding during MD simulations, in agreement with CD spectroscopy results. H-bonding analysis indicated that preferential exclusion of glycerol from the protein backbone increased stability of the folded state. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 321 Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-394503 SP - 25806 EP - 25816 ER - TY - THES A1 - Ulaganathan, Vamseekrishna T1 - Molecular fundamentals of foam fractionation T1 - Molekulare Grundlagen der Schaumfraktionierung N2 - Foam fractionation of surfactant and protein solutions is a process dedicated to separate surface active molecules from each other due to their differences in surface activities. The process is based on forming bubbles in a certain mixed solution followed by detachment and rising of bubbles through a certain volume of this solution, and consequently on the formation of a foam layer on top of the solution column. Therefore, systematic analysis of this whole process comprises of at first investigations dedicated to the formation and growth of single bubbles in solutions, which is equivalent to the main principles of the well-known bubble pressure tensiometry. The second stage of the fractionation process includes the detachment of a single bubble from a pore or capillary tip and its rising in a respective aqueous solution. The third and final stage of the process is the formation and stabilization of the foam created by these bubbles, which contains the adsorption layers formed at the growing bubble surface, carried up and gets modified during the bubble rising and finally ends up as part of the foam layer. Bubble pressure tensiometry and bubble profile analysis tensiometry experiments were performed with protein solutions at different bulk concentrations, solution pH and ionic strength in order to describe the process of accumulation of protein and surfactant molecules at the bubble surface. The results obtained from the two complementary methods allow understanding the mechanism of adsorption, which is mainly governed by the diffusional transport of the adsorbing protein molecules to the bubble surface. This mechanism is the same as generally discussed for surfactant molecules. However, interesting peculiarities have been observed for protein adsorption kinetics at sufficiently short adsorption times. First of all, at short adsorption times the surface tension remains constant for a while before it decreases as expected due to the adsorption of proteins at the surface. This time interval is called induction time and it becomes shorter with increasing protein bulk concentration. Moreover, under special conditions, the surface tension does not stay constant but even increases over a certain period of time. This so-called negative surface pressure was observed for BCS and BLG and discussed for the first time in terms of changes in the surface conformation of the adsorbing protein molecules. Usually, a negative surface pressure would correspond to a negative adsorption, which is of course impossible for the studied protein solutions. The phenomenon, which amounts to some mN/m, was rather explained by simultaneous changes in the molar area required by the adsorbed proteins and the non-ideality of entropy of the interfacial layer. It is a transient phenomenon and exists only under dynamic conditions. The experiments dedicated to the local velocity of rising air bubbles in solutions were performed in a broad range of BLG concentration, pH and ionic strength. Additionally, rising bubble experiments were done for surfactant solutions in order to validate the functionality of the instrument. It turns out that the velocity of a rising bubble is much more sensitive to adsorbing molecules than classical dynamic surface tension measurements. At very low BLG or surfactant concentrations, for example, the measured local velocity profile of an air bubble is changing dramatically in time scales of seconds while dynamic surface tensions still do not show any measurable changes at this time scale. The solution’s pH and ionic strength are important parameters that govern the measured rising velocity for protein solutions. A general theoretical description of rising bubbles in surfactant and protein solutions is not available at present due to the complex situation of the adsorption process at a bubble surface in a liquid flow field with simultaneous Marangoni effects. However, instead of modelling the complete velocity profile, new theoretical work has been started to evaluate the maximum values in the profile as characteristic parameter for dynamic adsorption layers at the bubble surface more quantitatively. The studies with protein-surfactant mixtures demonstrate in an impressive way that the complexes formed by the two compounds change the surface activity as compared to the original native protein molecules and therefore lead to a completely different retardation behavior of rising bubbles. Changes in the velocity profile can be interpreted qualitatively in terms of increased or decreased surface activity of the formed protein-surfactant complexes. It was also observed that the pH and ionic strength of a protein solution have strong effects on the surface activity of the protein molecules, which however, could be different on the rising bubble velocity and the equilibrium adsorption isotherms. These differences are not fully understood yet but give rise to discussions about the structure of protein adsorption layer under dynamic conditions or in the equilibrium state. The third main stage of the discussed process of fractionation is the formation and characterization of protein foams from BLG solutions at different pH and ionic strength. Of course a minimum BLG concentration is required to form foams. This minimum protein concentration is a function again of solution pH and ionic strength, i.e. of the surface activity of the protein molecules. Although at the isoelectric point, at about pH 5 for BLG, the hydrophobicity and hence the surface activity should be the highest, the concentration and ionic strength effects on the rising velocity profile as well as on the foamability and foam stability do not show a maximum. This is another remarkable argument for the fact that the interfacial structure and behavior of BLG layers under dynamic conditions and at equilibrium are rather different. These differences are probably caused by the time required for BLG molecules to adapt respective conformations once they are adsorbed at the surface. All bubble studies described in this work refer to stages of the foam fractionation process. Experiments with different systems, mainly surfactant and protein solutions, were performed in order to form foams and finally recover a solution representing the foamed material. As foam consists to a large extent of foam lamella – two adsorption layers with a liquid core – the concentration in a foamate taken from foaming experiments should be enriched in the stabilizing molecules. For determining the concentration of the foamate, again the very sensitive bubble rising velocity profile method was applied, which works for any type of surface active materials. This also includes technical surfactants or protein isolates for which an accurate composition is unknown. N2 - Die Fraktionierung ist ein Trennprozess, bei dem verschiedene Materialien auf Grund ihrer Eigenschaften voneinander getrennt werden. Bei der Sedimentation von Teilchen in einer Flüssigkeit dient deren unterschiedliche Dichte zu ihrer Trennung, da schwere Teilchen schneller auf den Boden des Gefäßes sinken als leichtere. Bei der Schaumfraktionierung als Trennprozess dient zur Trennung verschiedener Moleküle in einer Lösung deren Grenzflächenaktivität, d.h. das unterschiedliche Vermögen der Moleküle, sich an der Oberfläche von Gasblasen anzureichern. Durch das Aufsteigen der Blasen in der Flüssigkeit werden daher die Moleküle mit der höheren Grenzflächenaktivität stärker in der Schaumschicht angereichert als die weniger stark grenzflächenaktiven Komponenten. Ziel der vorliegenden Dissertation ist es, den Prozess der Schaumfraktionierung hinsichtlich der Trennung von grenzflächenaktiven Molekülen zu analysieren. Die Bildung von Blasen und deren anschließendes Aufsteigen in der Lösung kann als wichtigstes Element in diesem Prozess angesehen werden. Es ist bekannt, dass die Geschwindigkeit aufsteigender Luftblasen in Wasser eine charakteristische Größe ist, die durch die Anwesenheit grenzflächenaktiver Stoffe (Tenside, Proteine) stark verringert wird. Die vorliegende Dissertation zeigt für das ausgewählte Protein ß-Lactoglobulin und für verschiedene Lebensmittel-Tenside, dass die Messung der Aufstiegsgeschwindigkeit von Luftblasen zur Beurteilung der Anreicherung dieser Moleküle an der Blasenoberfläche ausgezeichnet geeignet ist. Die experimentellen Ergebnisse bei verschiedenen Lösungsbedingungen, wie Konzentration von Protein bzw. Tensid, pH-Wert und Ionenstärke der Lösung, zeigen deutlich, dass die Anreicherung der Proteinmoleküle wesentlich stärker ist als die von Tensiden. Dies gilt auch für Tenside mit einer sehr hohen Grenzflächenaktivität, was im Wesentlichen durch die extrem feste (nahezu irreversible) Anreicherung der Proteinmoleküle zu erklären ist. Die erzielten experimentellen Ergebnisse dienen jetzt als Grundlage für die Weiterentwicklung der Theorie aufsteigender Blasen, die besonders von der Dynamik der Anreicherung der Moleküle geprägt ist. Neueste Untersuchungen haben gezeigt, dass auf der Grundlage dieser experimentellen Ergebnisse erstmals die Geschwindigkeitskonstanten der Anreicherung (Adsorption und Desorption) unabhängig voneinander ermittelt werden können. KW - adsorption KW - air-water interface KW - protein KW - foam KW - rising bubble KW - Adsorption KW - Wasser/Luft Grenzflächen KW - steigende Blasen KW - Schaum KW - Beta-Lactoglobulin Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-94263 ER - TY - GEN A1 - Wang, Xinxin A1 - Huang, Xianyu A1 - Sachse, Dirk A1 - Ding, Weihua A1 - Xue, Jiantao T1 - Molecular paleoclimate reconstructions over the last 9 ka from a peat sequence in South China T2 - Postprints der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe N2 - To achieve a better understanding of Holocene climate change in the monsoon regions of China, we investigated the molecular distributions and carbon and hydrogen isotope compositions delta C-13 and delta D values) of long-chain n-alkanes in a peat core from the Shiwangutian SWGT) peatland, south China over the last 9 ka. By comparisons with other climate records, we found that the delta C-13 values of the long-chain n-alkanes can be a proxy for humidity, while the dD values of the long-chain n-alkanes primarily recorded the moisture source dD signal during 9-1.8 ka BP and responded to the dry climate during 1.8-0.3 ka BP. Together with the average chain length ACL) and the carbon preference index CPI) data, the climate evolution over last 9 ka in the SWGT peatland can be divided into three stages. During the first stage 9-5 ka BP), the delta C-13 values were depleted and CPI and Paq values were low, while ACL values were high. They reveal a period of warm and wet climate, which is regarded as the Holocene optimum. The second stage 5-1.8 ka BP) witnessed a shift to relatively cool and dry climate, as indicated by the more positive delta C-13 values and lower ACL values. During the third stage 1.8-0.3 ka BP), the delta C-13, delta D, CPI and Paq values showed marked increase and ACL values varied greatly, implying an abrupt change to cold and dry conditions. This climate pattern corresponds to the broad decline in Asian monsoon intensity through the latter part of the Holocene. Our results do not support a later Holocene optimum in south China as suggested by previous studies. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 543 KW - n-alkaline distributions KW - East-Asian monsoon KW - lacustrine sedimentary sequence KW - intertropical convergence zone KW - Western Nanling mountains KW - North-Atlantic climate KW - delta-D values KW - summer monsoon KW - isotopic composition KW - hydrogen isotopes Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-411608 SN - 1866-8372 IS - 543 ER - TY - GEN A1 - Eckert, Sebastian A1 - Miedema, Piter A1 - Quevedo, Wilson A1 - O'Cinneide, B. A1 - Fondell, Mattis A1 - Beye, Martin A1 - Pietzsch, Annette A1 - Ross, Matthew R. A1 - Khalil, Munira A1 - Föhlisch, Alexander T1 - Molecular structures and protonation state of 2-Mercaptopyridine in aqueous solution T2 - Postprints der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe N2 - The speciation of 2-Mercaptopyridine in aqueous solution has been investigated with nitrogen 1s Near Edge X-ray Absorption Fine Structure spectroscopy and time dependent Density Functional Theory. The prevalence of distinct species as a function of the solvent basicity is established. No indications of dimerization towards high concentrations are found. The determination of different molecular structures of 2-Mercaptopyridine in aqueous solution is put into the context of proton-transfer in keto-enol and thione-thiol tautomerisms. (C) 2016 The Authors. Published by Elsevier B.V. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 953 KW - ray-emission-spectroscopy KW - x-ray KW - hydroxypyridine-pyridone KW - protomeric equilibria KW - self-association KW - CU(110) KW - valence Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-437473 SN - 1866-8372 IS - 953 SP - 103 EP - 106 ER - TY - GEN A1 - Rajasundaram, Dhivyaa A1 - Selbig, Joachim T1 - More effort — more results BT - recent advances in integrative ‘omics’ data analysis T2 - Postprints der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe N2 - The development of 'omics' technologies has progressed to address complex biological questions that underlie various plant functions thereby producing copious amounts of data. The need to assimilate large amounts of data into biologically meaningful interpretations has necessitated the development of statistical methods to integrate multidimensional information. Throughout this review, we provide examples of recent outcomes of 'omics' data integration together with an overview of available statistical methods and tools. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 923 KW - principal component KW - plant biology KW - package Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-442639 SN - 1866-8372 IS - 923 SP - 57 EP - 61 ER -