TY - THES A1 - Falter, Daniela T1 - A novel approach for large-scale flood risk assessments T1 - Ein neuartiger Ansatz für großskalige Hochwasserrisikoanalysen BT - continuous and long-term simulation of the full flood risk chain BT - kontinuierliche Langzeitsimulation der gesamten Hochwasserrisikokette N2 - In the past, floods were basically managed by flood control mechanisms. The focus was set on the reduction of flood hazard. The potential consequences were of minor interest. Nowadays river flooding is increasingly seen from the risk perspective, including possible consequences. Moreover, the large-scale picture of flood risk became increasingly important for disaster management planning, national risk developments and the (re-) insurance industry. Therefore, it is widely accepted that risk-orientated flood management ap-proaches at the basin-scale are needed. However, large-scale flood risk assessment methods for areas of several 10,000 km² are still in early stages. Traditional flood risk assessments are performed reach wise, assuming constant probabilities for the entire reach or basin. This might be helpful on a local basis, but where large-scale patterns are important this approach is of limited use. Assuming a T-year flood (e.g. 100 years) for the entire river network is unrealistic and would lead to an overestimation of flood risk at the large scale. Due to the lack of damage data, additionally, the probability of peak discharge or rainfall is usually used as proxy for damage probability to derive flood risk. With a continuous and long term simulation of the entire flood risk chain, the spatial variability of probabilities could be consider and flood risk could be directly derived from damage data in a consistent way. The objective of this study is the development and application of a full flood risk chain, appropriate for the large scale and based on long term and continuous simulation. The novel approach of ‘derived flood risk based on continuous simulations’ is introduced, where the synthetic discharge time series is used as input into flood impact models and flood risk is directly derived from the resulting synthetic damage time series. The bottleneck at this scale is the hydrodynamic simu-lation. To find suitable hydrodynamic approaches for the large-scale a benchmark study with simplified 2D hydrodynamic models was performed. A raster-based approach with inertia formulation and a relatively high resolution of 100 m in combination with a fast 1D channel routing model was chosen. To investigate the suitability of the continuous simulation of a full flood risk chain for the large scale, all model parts were integrated into a new framework, the Regional Flood Model (RFM). RFM consists of the hydrological model SWIM, a 1D hydrodynamic river network model, a 2D raster based inundation model and the flood loss model FELMOps+r. Subsequently, the model chain was applied to the Elbe catchment, one of the largest catchments in Germany. For the proof-of-concept, a continuous simulation was per-formed for the period of 1990-2003. Results were evaluated / validated as far as possible with available observed data in this period. Although each model part introduced its own uncertainties, results and runtime were generally found to be adequate for the purpose of continuous simulation at the large catchment scale. Finally, RFM was applied to a meso-scale catchment in the east of Germany to firstly perform a flood risk assessment with the novel approach of ‘derived flood risk assessment based on continuous simulations’. Therefore, RFM was driven by long term synthetic meteorological input data generated by a weather generator. Thereby, a virtual time series of climate data of 100 x 100 years was generated and served as input to RFM providing subsequent 100 x 100 years of spatially consistent river discharge series, inundation patterns and damage values. On this basis, flood risk curves and expected annual damage could be derived directly from damage data, providing a large-scale picture of flood risk. In contrast to traditional flood risk analysis, where homogenous return periods are assumed for the entire basin, the presented approach provides a coherent large-scale picture of flood risk. The spatial variability of occurrence probability is respected. Additionally, data and methods are consistent. Catchment and floodplain processes are repre-sented in a holistic way. Antecedent catchment conditions are implicitly taken into account, as well as physical processes like storage effects, flood attenuation or channel–floodplain interactions and related damage influencing effects. Finally, the simulation of a virtual period of 100 x 100 years and consequently large data set on flood loss events enabled the calculation of flood risk directly from damage distributions. Problems associated with the transfer of probabilities in rainfall or peak runoff to probabilities in damage, as often used in traditional approaches, are bypassed. RFM and the ‘derived flood risk approach based on continuous simulations’ has the potential to provide flood risk statements for national planning, re-insurance aspects or other questions where spatially consistent, large-scale assessments are required. N2 - In der Vergangenheit standen bei der Betrachtung von Hochwasser insbesondere technische Schutzmaßnahmen und die Reduzierung der Hochwassergefahr im Mittelpunkt. Inzwischen wird Hochwasser zunehmend aus der Risikoperspektive betrachtet, d.h. neben der Gefährdung werden auch die Auswirkungen berücksichtigt. In diesem Zuge wurde auch die Notwendigkeit von großräumigen Hochwasserrisikoanalysen für das Management von Naturgefahren und als Planungsgrundlage auf nationaler Ebene sowie für die Rückversicherungsindustrie erkannt. Insbesondere durch die Einführung der Europäischen Hochwasserrisikomanagement Richtlinie sind risikoorientierte Managementpläne auf Einzugsgebietsebene obligatorisch. Allerdings befinden sich großräumige Hochwasserrisikoanalysen von mehreren 10.000 km², noch in den Anfängen. Traditionell werden Hochwasserrisikoanalysen für Gewässerabschnitte durchgeführt, wobei homogene Wiederkehrintervalle für das ganze Untersuchungsgebiet angenommen werden. Für lokale Fragestellungen ist diese Vorgehensweise sinnvoll, dies gilt allerdings nicht für die großräumige Analyse des Hochwasserrisikos. Die Annahme eines beispielsweise 100-jährigen Hochwassers im gesamten Gebiet ist unrealistisch und das Hochwasserrisiko würde dabei stark überschätzt werden. Aufgrund unzureichender Schadensdaten werden bei der Berechnung des Risikos oftmals die Wahrscheinlichkeiten des Niederschlags oder der Hochwasserscheitelabflüsse als Annäherung für die Wahrscheinlichkeit des Schadens angenommen. Durch eine kontinuierliche Langzeit-Simulation der gesamten Hochwasserrisikokette könnte sowohl die räumliche Verteilung der Wiederkehrintervalle berücksichtig werden, als auch das Hochwasserrisiko direkt aus Schadenszeitreihen abgeleitet werden. Die Zielsetzung dieser Arbeit ist die Entwicklung und Anwendung einer, für großräumige Gebiete geeigneten, kontinuierlichen Hochwasserrisikomodellkette. Damit wird ein neuartiger Ansatz des ‚abgeleiteten Hochwasserrisikos basierend auf kontinuierlichen Simulationen‘ eingeführt, der das Hochwasserrisiko direkt aus den simulierten Abflusszeitreichen und den daraus resultierenden Schadenzeitreihen ableitet. Die größte Herausforderung der Hochwasserrisikokette liegt bei den sehr rechenintensiven, detaillierten hydraulischen Simulationen. Um geeignete hydraulische Modelle für die großräumige Anwendung zu identifizieren, wurde eine Benchmark-Studie mit 2D Modellen unterschiedlicher Komplexität durchgeführt. Auf dieser Grundlage wurde für die Hochwasserrisikomodellkette ein rasterbasierter Ansatz mit einer relativ hohen Auflösung von 100 m in Kombination mit einem schnellen 1D Fließgewässermodell ausgewählt. Um die Eignung einer kontinuierlichen Simulation der gesamten Hochwasserrisikokette für großräumige Anwendungen zu prüfen, wurden zunächst alle Komponenten der Modellkette im ‚Regional Flood Model‘ (RFM) zusammengeführt. RFM besteht aus dem hydrologischen Modell SWIM, 1D und 2D hydraulischen Modellen, sowie dem Schadensmodell FELMOps+r. Nachfolgend wurde die Modellkette für das Elbe-Einzugsgebiet (>60.000 km²) angewendet. Es wurde eine kontinuierliche Simulation für den Zeitraum 1990-2003 durchgeführt. Die Ergebnisse wurden nach Möglichkeit mit vorhandenen Messdaten validiert/evaluiert. Auch wenn jede Komponente zu Unsicherheiten in den Ergebnissen der Modellkette beiträgt, sind die Ergebnisse und Rechenzeiten für die Anwendung auf großskaliger Einzugsgebietsebene als adäquat anzusehen. Schließlich wurde RFM in einem mesoskaligen Einzugsgebiet (6.000 km²) im Osten von Deutschland angewendet, um erstmals eine Hochwasserrisikoanalyse mit dem neuartigen Ansatz des ‚abgeleiteten Hochwasserrisikos basierend auf kontinuierlichen Simulationen‘ durchzuführen. Als Input wurde eine 100 x 100-jährige Zeitreihe meteorologischer Daten von einem Wettergenerator erzeugt. Die somit erzeugte 100 x 100-jährige konsistente Abflusszeitreihe, Überschwemmungsmuster und Schadenswerte dienten als Basis für die nachfolgende Erstellung von Hochwasserrisikokurven und Schadenserwartungswerten für das Untersuchungsgebiet. Diese ermöglichen eine großräumige Analyse des Hochwasserrisikos. Dabei wurde die räumliche Variation der Wahrscheinlichkeiten berücksichtigt. Die verwendeten Daten und Methoden waren außerdem im gesamten Untersuchungsgebiet einheitlich. Einzugsgebietsprozesse und Prozesse der Überschwemmungsflächen werden holistisch dargestellt. Die Vorbedingungen im Einzugsgebiet sowie physikalische Prozesse, wie Rückhalteeffekte, Überlagerungseffekte im Gewässernetz oder Interaktionen zwischen Fluss und Überschwemmungsflächen, werden implizit berücksichtigt. Die Simulation von 100 x 100 Jahren und die daraus resultierende große Anzahl an Schadensdaten ermöglichen die direkte Berechnung des Hochwasserrisikos aus Schadenswahrscheinlichkeiten. Die Probleme, die durch die Übertragung von Wahrscheinlichkeiten von Niederschlag oder Scheitelabfluss auf die Wahrscheinlichkeiten im Schaden resultieren, werden umgangen. RFM und der Ansatz des ‚abgeleiteten Hochwasserrisikos basierend auf kontinuierlichen Simulationen‘ haben das Potential Hochwasserrisikoaussagen für nationale Planungen, Rückversicherungsaspekte oder andere Fragestellungen, bei denen räumlich konsistente und großräumige Analysen nötig sind, zu treffen. KW - flood risk KW - hydraulic simulation KW - flood risk analysis KW - risk model chain KW - floodplain inundation KW - Hochwasserrisikoanalysen KW - Hochwasserrisikokette KW - Überschwemmungsflächen KW - kontinuierlicher Simulationsansatz Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-90239 ER - TY - THES A1 - Laux, Eva-Maria T1 - Electric field-assisted immobilization and alignment of biomolecules T1 - Immobilisierung und Ausrichtung von Biomolekülen mit elektrischen Wechselfeldern N2 - In this dissertation, an electric field-assisted method was developed and applied to achieve immobilization and alignment of biomolecules on metal electrodes in a simple one-step experiment. Neither modifications of the biomolecule nor of the electrodes were needed. The two major electrokinetic effects that lead to molecule motion in the chosen electrode configurations used were identified as dielectrophoresis and AC electroosmotic flow. To minimize AC electroosmotic flow, a new 3D electrode configuration was designed. Thus, the influence of experimental parameters on the dielectrophoretic force and the associated molecule movement could be studied. Permanent immobilization of proteins was examined and quantified absolutely using an atomic force microscope. By measuring the volumes of the immobilized protein deposits, a maximal number of proteins contained therein was calculated. This was possible since the proteins adhered to the tungsten electrodes even after switching off the electric field. The permanent immobilization of functional proteins on surfaces or electrodes is one crucial prerequisite for the fabrication of biosensors. Furthermore, the biofunctionality of the proteins must be retained after immobilization. Due to the chemical or physical modifications on the proteins caused by immobilization, their biofunctionality is sometimes hampered. The activity of dielectrophoretically immobilized proteins, however, was proven here for an enzyme for the first time. The enzyme horseradish peroxidase was used exemplarily, and its activity was demonstrated with the oxidation of dihydrorhodamine 123, a non-fluorescent precursor of the fluorescence dye rhodamine 123. Molecular alignment and immobilization - reversible and permanent - was achieved under the influence of inhomogeneous AC electric fields. For orientational investigations, a fluorescence microscope setup, a reliable experimental procedure and an evaluation protocol were developed and validated using self-made control samples of aligned acridine orange molecules in a liquid crystal. Lambda-DNA strands were stretched and aligned temporarily between adjacent interdigitated electrodes, and the orientation of PicoGreen molecules, which intercalate into the DNA strands, was determined. Similarly, the aligned immobilization of enhanced Green Fluorescent Protein was demonstrated exploiting the protein's fluorescence and structural properties. For this protein, the angle of the chromophore with respect to the protein's geometrical axis was determined in good agreement with X-ray crystallographic data. Permanent immobilization with simultaneous alignment of the proteins was achieved along the edges, tips and on the surface of interdigitated electrodes. This was the first demonstration of aligned immobilization of proteins by electric fields. Thus, the presented electric field-assisted immobilization method is promising with regard to enhanced antibody binding capacities and enzymatic activities, which is a requirement for industrial biosensor production, as well as for general interaction studies of proteins. N2 - In dieser Doktorarbeit wurde eine Methode entwickelt, mit der Biomoleküle unter dem Einfluss von elektrischen Feldern auf Metallelektroden immobilisiert und ausgerichtet werden können. Für die Immobilisierung wurden weder Modifikationen an den Biomolekülen noch an den Elektroden benötigt. Zwei elektrokinetische Effekte, die Dielektrophorese und der AC-elektroosmotische Fluss, wurden als verantwortliche Effekte für die Molekülbewegung identifiziert. Mit einer neuen 3D Elektrodenkonfiguration wurde der AC-elektroosmotische Fluss minimiert. Damit konnte der Einfluss der experimentellen Parameter auf die Dielektrophoresekraft und deren Auswirkungen auf die Moleküle untersucht werden: Die permanente Immobilisierung von Proteinen wurde mit einem Rasterkraftmikroskop quantifiziert, indem die Volumina der immobilisierten Proteinablagerungen gemessen wurden, und daraus die maximal darin enthaltene Anzahl an Proteinen berechnet wurde. Diese Art der absoluten Quantifizierung war nur möglich, da die Proteine auch nach Abschalten des elektrischen Feldes auf den Wolframelektroden hafteten. Eine solche permanente Immobilisierung funktioneller Proteine auf Elektroden oder Oberflächen im Allgemeinen ist eine wichtige Voraussetzung für die Herstellung von Biosensoren. Des Weiteren muss die Biofunktion der Proteine nach der Immobilisierung erhalten bleiben. Da die Proteine durch die Immobilisierung chemisch oder physikalisch verändert werden, ist auch ihre Biofunktion häufig eingeschränkt. In dieser Arbeit wurde erstmals der Erhalt der Aktivität dielektrophoretisch immobilisierter Enzyme gezeigt. Hierfür wurde das Enzym Meerrettichperoxidase exemplarisch verwendet, dessen Aktivität über die Oxidation von Dihydrorhodamin 123, einem nicht-fluoreszentem Vorläufer des Fluoreszenzfarbstoffes Rhodamin 123, nachgewiesen wurde. Molekulare Ausrichtung und Immobilisierung – sowohl reversibel als auch permanent – wurde unter dem Einfluss inhomogener elektrischer Wechselfelder erreicht. Für die Bestimmung der Molekülausrichtung wurde mit ein Messaufbau entwickelt, der auf einem Fluoreszenzmikroskop basiert. Der Aufbau, das Messprotokoll und die Auswertungsmethode wurden mit einer selbst hergestellten Kontrollprobe, die aus ausgerichteten Acridinorangemolekülen in einem Flüssigkristall bestand, validiert. Lambda-DNA Doppelstränge wurden zwischen benachbarten Interdigitalelektroden gestreckt und temporär ausgerichtet. Die Ausrichtung von interkalierten PicoGreen-Molekülen im rechten Winkel zur Längsachse der Doppelstränge konnte hier gezeigt werden. Zudem konnte die ausgerichtete Immobilisierung des enhanced Green Fluorescent Protein nachgewiesen werden, indem die Fluoreszenz des Proteins und seine Struktureigenschaften ausgenutzt wurden. Aus den Messungen konnte der Winkel des Chromophors relativ zur Proteinlängsachse mit guter Übereinstimmung mit Röntgenkristallstrukturdaten bestimmt werden. Eine permanente Immobilisierung mit gleichzeitiger Ausrichtung der Proteine wurde entlang der Kanten, an den Spitzen und auf der Oberfläche von Interdigitalelektroden erzielt. Damit wurde zum ersten Mal eine ausgerichtete Immobilisierung von Proteinen mit elektrischen Wechselfeldern gezeigt. Diese Methode ist vielversprechend für die Immobilisierung von Antikörpern oder Enzymen mit einheitlicher Ausrichtung und dadurch verbessertem Zugang zu den aktiven Zentren, was nicht nur für die industrielle Biosensorherstellung von Interesse ist, sondern genauso für allgemeine Wechselwirkungsstudien von Proteinen. KW - dielectrophoresis KW - electrokinetics KW - proteins KW - immobilization KW - alignment KW - Dielektrophorese KW - elektrokinetische Effekte KW - Proteine KW - Immobilisierung KW - Ausrichtung Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-90271 ER - TY - THES A1 - Wichitsa-nguan, Korakot T1 - Modifications and extensions of the logistic regression and Cox model T1 - Modifikationen und Erweiterungen des logistischen Regressionsmodells und des Cox-Modells N2 - In many statistical applications, the aim is to model the relationship between covariates and some outcomes. A choice of the appropriate model depends on the outcome and the research objectives, such as linear models for continuous outcomes, logistic models for binary outcomes and the Cox model for time-to-event data. In epidemiological, medical, biological, societal and economic studies, the logistic regression is widely used to describe the relationship between a response variable as binary outcome and explanatory variables as a set of covariates. However, epidemiologic cohort studies are quite expensive regarding data management since following up a large number of individuals takes long time. Therefore, the case-cohort design is applied to reduce cost and time for data collection. The case-cohort sampling collects a small random sample from the entire cohort, which is called subcohort. The advantage of this design is that the covariate and follow-up data are recorded only on the subcohort and all cases (all members of the cohort who develop the event of interest during the follow-up process). In this thesis, we investigate the estimation in the logistic model for case-cohort design. First, a model with a binary response and a binary covariate is considered. The maximum likelihood estimator (MLE) is described and its asymptotic properties are established. An estimator for the asymptotic variance of the estimator based on the maximum likelihood approach is proposed; this estimator differs slightly from the estimator introduced by Prentice (1986). Simulation results for several proportions of the subcohort show that the proposed estimator gives lower empirical bias and empirical variance than Prentice's estimator. Then the MLE in the logistic regression with discrete covariate under case-cohort design is studied. Here the approach of the binary covariate model is extended. Proving asymptotic normality of estimators, standard errors for the estimators can be derived. The simulation study demonstrates the estimation procedure of the logistic regression model with a one-dimensional discrete covariate. Simulation results for several proportions of the subcohort and different choices of the underlying parameters indicate that the estimator developed here performs reasonably well. Moreover, the comparison between theoretical values and simulation results of the asymptotic variance of estimator is presented. Clearly, the logistic regression is sufficient for the binary outcome refers to be available for all subjects and for a fixed time interval. Nevertheless, in practice, the observations in clinical trials are frequently collected for different time periods and subjects may drop out or relapse from other causes during follow-up. Hence, the logistic regression is not appropriate for incomplete follow-up data; for example, an individual drops out of the study before the end of data collection or an individual has not occurred the event of interest for the duration of the study. These observations are called censored observations. The survival analysis is necessary to solve these problems. Moreover, the time to the occurence of the event of interest is taken into account. The Cox model has been widely used in survival analysis, which can effectively handle the censored data. Cox (1972) proposed the model which is focused on the hazard function. The Cox model is assumed to be λ(t|x) = λ0(t) exp(β^Tx) where λ0(t) is an unspecified baseline hazard at time t and X is the vector of covariates, β is a p-dimensional vector of coefficient. In this thesis, the Cox model is considered under the view point of experimental design. The estimability of the parameter β0 in the Cox model, where β0 denotes the true value of β, and the choice of optimal covariates are investigated. We give new representations of the observed information matrix In(β) and extend results for the Cox model of Andersen and Gill (1982). In this way conditions for the estimability of β0 are formulated. Under some regularity conditions, ∑ is the inverse of the asymptotic variance matrix of the MPLE of β0 in the Cox model and then some properties of the asymptotic variance matrix of the MPLE are highlighted. Based on the results of asymptotic estimability, the calculation of local optimal covariates is considered and shown in examples. In a sensitivity analysis, the efficiency of given covariates is calculated. For neighborhoods of the exponential models, the efficiencies have then been found. It is appeared that for fixed parameters β0, the efficiencies do not change very much for different baseline hazard functions. Some proposals for applicable optimal covariates and a calculation procedure for finding optimal covariates are discussed. Furthermore, the extension of the Cox model where time-dependent coefficient are allowed, is investigated. In this situation, the maximum local partial likelihood estimator for estimating the coefficient function β(·) is described. Based on this estimator, we formulate a new test procedure for testing, whether a one-dimensional coefficient function β(·) has a prespecified parametric form, say β(·; ϑ). The score function derived from the local constant partial likelihood function at d distinct grid points is considered. It is shown that the distribution of the properly standardized quadratic form of this d-dimensional vector under the null hypothesis tends to a Chi-squared distribution. Moreover, the limit statement remains true when replacing the unknown ϑ0 by the MPLE in the hypothetical model and an asymptotic α-test is given by the quantiles or p-values of the limiting Chi-squared distribution. Finally, we propose a bootstrap version of this test. The bootstrap test is only defined for the special case of testing whether the coefficient function is constant. A simulation study illustrates the behavior of the bootstrap test under the null hypothesis and a special alternative. It gives quite good results for the chosen underlying model. References P. K. Andersen and R. D. Gill. Cox's regression model for counting processes: a large samplestudy. Ann. Statist., 10(4):1100{1120, 1982. D. R. Cox. Regression models and life-tables. J. Roy. Statist. Soc. Ser. B, 34:187{220, 1972. R. L. Prentice. A case-cohort design for epidemiologic cohort studies and disease prevention trials. Biometrika, 73(1):1{11, 1986. N2 - In vielen statistischen Anwendungen besteht die Aufgabe darin, die Beziehung zwischen Einflussgrößen und einer Zielgröße zu modellieren. Die Wahl eines geeigneten Modells hängt vom Typ der Zielgröße und vom Ziel der Untersuchung ab - während lineare Modelle für die Beschreibung des Zusammenhanges stetiger Outputs und Einflussgrößen genutzt werden, dienen logistische Regressionsmodelle zur Modellierung binärer Zielgrößen und das Cox-Modell zur Modellierung von Lebendauer-Daten. In epidemiologischen, medizinischen, biologischen, sozialen und ökonomischen Studien wird oftmals die logistische Regression angewendet, um den Zusammenhang zwischen einer binären Zielgröße und den erklärenden Variablen, den Kovariaten, zu modellieren. In epidemiologischen Studien muss häufig eine große Anzahl von Individuen für eine lange Zeit beobachtet werden. Um hierbei Kosten zu reduzieren, wird ein "Case-Cohort-Design" angewendet. Hierbei werden die Einflussgrößen nur für die Individuen erfasst, für die das interessierende Ereignis eintritt, und für eine zufällig gewählte kleine Teilmenge von Individuen, die Subkohorte. In der vorliegenden Arbeit wird das Schätzen im logistischen Regressionsmodell unter Case-Cohort-Design betrachtet. Für den Fall, dass auch die Kovariate binär ist, wurde bereits von Prentice (1986) die asymptotische Normalität des Maximum-Likelihood-Schätzers für den Logarithmus des "odds ratio", einen Parameter, der den Effekt der Kovariate charakterisiert, angegeben. In dieser Arbeit wird über einen Maximum-Likelihood-Zugang ein Schätzer für die Varianz der Grenzverteilung hergeleitet, für den durch empirische Untersuchungen gezeigt wird, dass er dem von Prentice überlegen ist. Ausgehend von dem binärem Kovariate-Modell werden Maximum-Likelihood-Schätzer für logistische Regressionsmodelle mit diskreten Kovariaten unter Case-Cohort-Design hergeleitet. Die asymptotische Normalität wird gezeigt; darauf aufbauend können Formeln für die Standardfehler angegeben werden. Simulationsstudien ergänzen diesen Abschnitt. Sie zeigen den Einfluss des Umfanges der Subkohorte auf die Varianz der Schätzer. Logistische Regression ist geeignet, wenn man das interessierende Ereignis für alle Individuen beobachten kann und wenn man ein festes Zeitintervall betrachtet. Will man die Zeit bis zum Eintreten eines Ereignisses bei der Untersuchung der Wirkung der Kovariate berücksichtigen, so sind Lebensdauermodelle angemessen. Hierbei können auch zensierte Daten behandelt werden. Ein sehr häufig angewendetes Regressionsmodell ist das von Cox (1972) vorgeschlagene, bei dem die Hazardrate durch λ(t|x) = λ0(t) exp(β^Tx) definiert ist. Hierbei ist λ0(t) eine unspezifizierte Baseline-Hazardrate und X ist ein Kovariat-Vektor, β ist ein p-dimensionaler Koeffizientenvektor. Nachdem ein Überblick über das Schätzen und Testen im Cox-Modell und seinen Erweiterungen gegeben wird, werden Aussagen zur Schätzbarkeit des Parameters β durch die "partiallikelihood"- Methode hergeleitet. Grundlage hierzu sind neue Darstellungen der beobachteten Fisher-Information, die die Ergebnisse von Andersen and Gill (1982) erweitern. Unter Regularitätsbedingungen ist der Schätzer asymptotisch normal; die Inverse der Grenzmatrix der Fisher-Information ist die Varianzmatrix der Grenzverteilung. Bedingungen für die Nichtsingularität dieser Grenzmatrix führen zum Begriff der asymptotischen Schätzbarkeit, der in der vorliegenden Arbeit ausführlich untersucht wird. Darüber hinaus ist diese Matrix Grundlage für die Herleitung lokal optimaler Kovariate. In einer Sensitivitätsanalyse wird die Effizienz gewählter Kovariate berechnet. Die Berechnungen zeigen, dass die Baseline-Verteilung nur wenig Einfluss auf die Effizienz hat. Entscheidend ist die Wahl der Kovariate. Es werden einige Vorschläge für anwendbare optimale Kovariate und Berechnungsverfahren für das Auffinden optimaler Kovariate diskutiert. Eine Erweiterung des Cox-Modells besteht darin, zeitabhängige Koeffizienten zuzulassen. Da diese Koeffizientenfunktionen nicht näher spezifiziert sind, werden sie nichtparametrisch geschätzt. Eine mögliche Methode ist die "local-linear-partial-likelihood"-Methode, deren Eigenschaften beispielsweise in der Arbeit von Cai and Sun (2003) untersucht wurden. In der vorliegenden Arbeit werden Simulationen zu dieser Methode durchgeführt. Hauptaspekt ist das Testen der Koeffizientenfunktion. Getestet wird, ob diese Funktion eine bestimmte parametrische Form besitzt. Betrachtet wird der Score-Vektor, der von der "localconstant-partial-likelihood"-Funktion abgeleitet wird. Ausgehend von der asymptotischen Normalität dieses Vektors an verschiedenen Gitterpunkten kann gezeigt werden, dass die Verteilung der geeignet standardisierten quadratischen Form unter der Nullhypothese gegen eine Chi-Quadrat-Verteilung konvergiert. Die Eigenschaften des auf dieser Grenzverteilungsaussage aufbauenden Tests hängen nicht nur vom Stichprobenumfang, sondern auch vom verwendeten Glättungsparameter ab. Deshalb ist es sinnvoll, auch einen Bootstrap-Test zu betrachten. In der vorliegenden Arbeit wird ein Bootstrap-Test zum Testen der Hypothese, dass die Koeffizienten-Funktion konstant ist, d.h. dass das klassische Cox-Modell vorliegt, vorgeschlagen. Der Algorithmus wird angegeben. Simulationen zum Verhalten dieses Tests unter der Nullhypothese und einer speziellen Alternative werden durchgeführt. Literatur P. K. Andersen and R. D. Gill. Cox's regression model for counting processes: a large sample study. Ann. Statist., 10(4):1100{1120, 1982. Z. Cai and Y. Sun. Local linear estimation for time-dependent coefficients in Cox's regression models. Scand. J. Statist., 30(1):93-111, 2003. D. R. Cox. Regression models and life-tables. J. Roy. Statist. Soc. Ser. B, 34:187-220, 1972. R. L. Prentice. A case-cohort design for epidemiologic cohort studies and disease prevention trials. Biometrika, 73(1):1-11, 1986. KW - survival analysis KW - Cox model KW - logistic regression analysis KW - logistische Regression KW - Case-Cohort-Design KW - Cox-Modell Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-90033 ER - TY - THES A1 - Renans, Agata Maria T1 - Exhaustivity T1 - Exhaustivität BT - on exclusive particles, clefts, and progressive aspect in Ga (Kwa) BT - über exklusive Partikel, Spaltsätze und progressiven Aspekt im Ga (Kwa) N2 - The dissertation proposes an answer to the question of how to model exhaustive inferences and what the meaning of the linguistic material that triggers these inferences is. In particular, it deals with the semantics of exclusive particles, clefts, and progressive aspect in Ga, an under-researched language spoken in Ghana. Based on new data coming from the author’s original fieldwork in Accra, the thesis points to a previously unattested variation in the semantics of exclusives in a cross-linguistic perspective, analyzes the connections between exhaustive interpretation triggered by clefts and the aspectual interpretation of the sentence, and identifies a cross-categorial definite determiner. By that it sheds new light on several exhaustivity-related phenomena in both the nominal and the verbal domain and shows that both domains are closely connected. N2 - Die Dissertation schlägt eine Antwort auf die Frage vor, wie exhaustive Inferenzen modelliert werden können und was die Bedeutung des sprachlichen Materials ist, das diese Inferenzen auslöst. Insbesondere geht es um die Semantik von exklusiven Partikeln, Spaltsätzen und progressivem Aspekt im Ga, einer bisher wenig untersuchten Sprache, die in Ghana gesprochen wird. Basierend auf neuen Daten aus der Feldforschungsarbeit der Autorin verweist die Dissertation auf zuvor nicht attestierte sprachübergreifende Variation in der Semantik exklusiver Partikel, analysiert die Beziehung zwischen exhaustiver Interpretation von Spaltsätzen und Aspektinterpretation und identifiziert einen kategorieübergreifenden definiten Artikel. Die Arbeit wirft somit neues Licht auf mehrere exhaustivitätsbezogene Phänomene sowohl in der nominalen als auch in der verbalen Domäne und zeigt, dass beide Domänen eng miteinander verbunden sind. KW - formal semantics KW - fieldwork KW - exclusive particles KW - clefts KW - progressive aspect KW - defintie determiner KW - formale Semantik KW - Feldforschung KW - exklusive Partikel KW - Spaltssatz KW - progressiver Aspekt KW - Ga (Kwa) Sprache KW - Ga (Kwa) language Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-89501 ER - TY - THES A1 - Mai, Tobias T1 - Polymerunterstützte Calciumphosphatmineralisation T1 - Polymer supported calcium phosphate mineralization N2 - Im Verlauf dieser Arbeit sind Blockcopolymere verschiedener Ladung auf Basis von PEO mit hohen Molekulargewichten durch lebendende freie radikalische Polymerisation hergestellt worden. Die Polymere sind einfach im Grammmaßstab herstellbar. Sie zeigen sowohl einen großen Einfluss auf die Nukleation als auch auf die Auflösung von Calciumphosphat. Gleichwohl scheint das Vorhandensein von positiven Gruppen (Kationen, Ampholyten und Betainen) keinen dramatischen Einfluss auf die Nukleation zu haben. So verursachen Polymere mit positiven Ladungen die gleiche Retentionwirkung wie solche, die ausschließlich anionische Gruppen enthalten. Aus der Verwendung der kationischen, ampholytischen und betainischen Copolymere resultiert allerdings eine andersartige Morphologie der Niederschläge, als aus der Verwendung der Anionischen hervorgeht. Bei der Stabilisierung einer HAP-Oberfläche setzt sich dieser Trend fort, das heißt, rein anionische Copolymere wirken stärker stabilisierend als solche, die positive Ladungen enthalten. Durch Inkubation von menschlichem Zahnschmelz mit anionischen Copolymeren konnte gezeigt werden, dass die Biofilmbildung verglichen mit einer unbehandelten Zahnoberfläche eingeschränkt abläuft. All dies macht die Polymere zu interessanten Additiven für Zahnpflegeprodukte. Zusätzlich konnten auf Basis dieser rein anionischen Copolymere Polymerbürsten, ebenfalls über lebendende freie radikalische Polymerisation, hergestellt werden. Diese zeichnen sich durch einen großen Einfluss auf die Kristallphase aus und bilden mit dem CHAP des AB-Types das Material, welches auch in Knochen und Zähnen vorkommt. Erste Cytotoxizitätstests lassen auf das große Potential dieser Polymerbürsten für Beschichtungen in der Medizintechnik schließen. N2 - The thesis at hand describes the preparation of block-copolymers composed of uncharged polyethyleneoxides and differently charged methacrylate-based blocks. Synthesized via living free-radical polymerization the charged blocks were prepared by using of the following monomers: I) for anionic blocks 3-Sulfopropyl methacrylate potassium salt (SPM); II) for cationic blocks 2-(trimethyl ammonium) ethyl methacrylate chloride (TMAEMA) or2-(N-3-Cyanopropyl-N,N-dimethyl ammonium chloride) ethyl methacrylate (CPDMAEMA); III) for betainic blocks [2-(methacryloyloxy) ethyl] dimethyl-(3-sulfopropyl) ammonium hydroxide (MEDSAH) and IV) for ampholytic blocks the anionic SPM and one of the two cationic monomers TMAEMA or CPDMAEMA were used in equal parts. The polymers were accessible in a multigram scale. The resulting block-copolymers show a strong effect on both the dissolution and the nucleation of calcium phosphate. The presence of positively charged moieties in case of applying polycations, polyampholytes and polybetaines does not seem to influence the nucleation in a different manner than the negatively charged polyanions. Nontheless the application of cationic, betainic or ampholytic polymers leads to different morphology of the calcium phosphate precipitates compared to the anionic polymers. The presence of anions results in the formation of spherical well-separated particles whereas cations, ampholytes and betaines cause the composition of smaller particles. In contrast to this data obtained by energy-dispersive X-ray spectroscopy and X-ray crystallography show that calcium deficient hydroxyapatite was formed in all cases. Therefore it can be concluded that the polymers' charge influences the morphology but not the crystal phase. This observation extends to the stabilization of the hydroxyapatite's (HAP) surface. A comparison of polymers containing cations and anionic polymers reveals a stronger stabilizing effect for anions. With the calcium phosphate's dissolution per monomer unit taken into consideration only the anionic charges lead to a stabilization of the HAP-surface at low polymer concentrations while in presence of positive charges a destabilization is observed. By incubating human enamel specimen with mixtures of anionic copolymers and natural human saliva a reduced biofilm formation could be detected when compared to polymer free saliva. Thus the polymers could be potentially used for dental care products. Additionally it was possible to synthesize polymer brushes based on the anionic copolymers' architecture. Again SPM was polymerized yet fastened on a silicon surface via living free-radical polymerization in a grafting-from mechanism. The brushes stand out due to a great influence on the crystal phase of calcium phosphate. They promote the formation of AB-type carbonate substituted hydroxyapatite (CHAP) a material in human bones and teeth that is formed increasingly with age. Initial cytotoxicity tests of both mineralized and unmineralized brushes indicate a high potential of the brushes for biomedical engineering. KW - Polymerchemie KW - polymer chemistry KW - Calciumphosphat KW - calcium phosphate KW - Mineralisation KW - mineralization Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-89056 ER - TY - THES A1 - Schintgen, Tom Vincent T1 - The geothermal potential of Luxembourg T1 - Das geothermische Potenzial von Luxemburg BT - geological and thermal exploration for deep geothermal reservoirs in Luxembourg and the surroundings BT - geologische und thermische Erkundung nach tiefen geothermischen Lagerstätten in Luxemburg und Umgebung N2 - The aim of this work is the evaluation of the geothermal potential of Luxembourg. The approach consists in a joint interpretation of different types of information necessary for a first rather qualitative assessment of deep geothermal reservoirs in Luxembourg and the adjoining regions in the surrounding countries of Belgium, France and Germany. For the identification of geothermal reservoirs by exploration, geological, thermal, hydrogeological and structural data are necessary. Until recently, however, reliable information about the thermal field and the regional geology, and thus about potential geothermal reservoirs, was lacking. Before a proper evaluation of the geothermal potential can be performed, a comprehensive survey of the geology and an assessment of the thermal field are required. As a first step, the geology and basin structure of the Mesozoic Trier–Luxembourg Basin (TLB) is reviewed and updated using recently published information on the geology and structures as well as borehole data available in Luxembourg and the adjoining regions. A Bouguer map is used to get insight in the depth, morphology and structures in the Variscan basement buried beneath the Trier–Luxembourg Basin. The geological section of the old Cessange borehole is reinterpreted and provides, in combination with the available borehole data, consistent information for the production of isopach maps. The latter visualize the synsedimentary evolution of the Trier–Luxembourg Basin. Complementary, basin-wide cross sections illustrate the evolution and structure of the Trier–Luxembourg Basin. The knowledge gained does not support the old concept of the Weilerbach Mulde. The basin-wide cross sections, as well as the structural and sedimentological observations in the Trier–Luxembourg Basin suggest that the latter probably formed above a zone of weakness related to a buried Rotliegend graben. The inferred graben structure designated by SE-Luxembourg Graben (SELG) is located in direct southwestern continuation of the Wittlicher Rotliegend-Senke. The lack of deep boreholes and subsurface temperature prognosis at depth is circumnavigated by using thermal modelling for inferring the geothermal resource at depth. For this approach, profound structural, geological and petrophysical input data are required. Conceptual geological cross sections encompassing the entire crust are constructed and further simplified and extended to lithospheric scale for their utilization as thermal models. The 2-D steady state and conductive models are parameterized by means of measured petrophysical properties including thermal conductivity, radiogenic heat production and density. A surface heat flow of 75 ∓ 7 (2δ) mW m–2 for verification of the thermal models could be determined in the area. The models are further constrained by the geophysically-estimated depth of the lithosphere–asthenosphere boundary (LAB) defined by the 1300 °C isotherm. A LAB depth of 100 km, as seismically derived for the Ardennes, provides the best fit with the measured surface heat flow. The resulting mantle heat flow amounts to ∼40 mW m–2. Modelled temperatures are in the range of 120–125 °C at 5 km depth and of 600–650 °C at the crust/mantle discontinuity (Moho). Possible thermal consequences of the 10–20 Ma old Eifel plume, which apparently caused upwelling of the asthenospheric mantle to 50–60 km depth, were modelled in a steady-state thermal scenario resulting in a surface heat flow of at least 91 mW m–2 (for the plume top at 60 km) in the Eifel region. Available surface heat-flow values are significantly lower (65–80 mW m–2) and indicate that the plume-related heating has not yet entirely reached the surface. Once conceptual geological models are established and the thermal regime is assessed, the geothermal potential of Luxembourg and the surrounding areas is evaluated by additional consideration of the hydrogeology, the stress field and tectonically active regions. On the one hand, low-enthalpy hydrothermal reservoirs in Mesozoic reservoirs in the Trier–Luxembourg Embayment (TLE) are considered. On the other hand, petrothermal reservoirs in the Lower Devonian basement of the Ardennes and Eifel regions are considered for exploitation by Enhanced/Engineered Geothermal Systems (EGS). Among the Mesozoic aquifers, the Buntsandstein aquifer characterized by temperatures of up to 50 °C is a suitable hydrothermal reservoir that may be exploited by means of heat pumps or provide direct heat for various applications. The most promising area is the zone of the SE–Luxembourg Graben. The aquifer is warmest underneath the upper Alzette River valley and the limestone plateau in Lorraine, where the Buntsandstein aquifer lies below a thick Mesozoic cover. At the base of an inferred Rotliegend graben in the same area, temperatures of up to 75 °C are expected. However, geological and hydraulic conditions are uncertain. In the Lower Devonian basement, thick sandstone-/quartzite-rich formations with temperatures >90 °C are expected at depths >3.5 km and likely offer the possibility of direct heat use. The setting of the Südeifel (South Eifel) region, including the Müllerthal region near Echternach, as a tectonically active zone may offer the possibility of deep hydrothermal reservoirs in the fractured Lower Devonian basement. Based on the recent findings about the structure of the Trier–Luxembourg Basin, the new concept presents the Müllerthal–Südeifel Depression (MSD) as a Cenozoic structure that remains tectonically active and subsiding, and therefore is relevant for geothermal exploration. Beyond direct use of geothermal heat, the expected modest temperatures at 5 km depth (about 120 °C) and increased permeability by EGS in the quartzite-rich Lochkovian could prospectively enable combined geothermal heat production and power generation in Luxembourg and the western realm of the Eifel region. N2 - Die Zielsetzung dieser Arbeit ist die Bewertung des geothermischen Potenzials in Luxemburg. Der Ansatz besteht aus einer gemeinsamen Ausdeutung verschiedener Daten die für eine erste eher qualitative Abschätzung der tiefen geothermischen Lagerstätten in Luxemburg und den angrenzenden Regionen in den benachbarten Ländern Belgien, Frankreich und Deutschland notwendig sind. Für die Erkennung geothermischer Lagerstätten durch Erkundung sind geologische, thermische, hydrogeologische und strukturgeologische Kenntnisse erforderlich. Bis vor kurzem jedoch waren verlässliche Informationen über das thermische Feld und die Geologie und somit über mögliche geothermische Lagerstätten nicht verfügbar. Bevor eine genaue Bewertung des geothermischen Potenzials durchgeführt werden kann müssen eine umfassende Untersuchung der regionalen Geologie und eine Abschätzung des thermischen Feldes erfolgen. Als erstes wird die Geologie und Struktur des Mesozoischen Trier–Luxemburger Beckens (TLB) mittels kürzlich erschienenen Erkenntnissen über die Geologie und Strukturen sowie verfügbaren Bohrdaten in Luxemburg und den angrenzenden Gebieten überprüft und aktualisiert. Eine Bouguer Schwerekarte liefert einen Einblick in die Tiefe, Morphologie und Strukturen des variskischen Grundgebirges welches unter dem Trier–Luxemburger Becken verborgen ist. Die Schichtenfolge in der alten Bohrung Cessingen wird neu gedeutet und bietet in der Gesamtdeutung der verfügbaren Bohrdaten einheitliche Angaben für die Erzeugung von Mächtigkeitskarten. Diese veranschaulichen die synsedimentäre Entwickung des Trier–Luxemburger Beckens. Ergänzende, beckenübergreifende geologische Schnitte verdeutlichen die Entwicklung und Struktur des Trier–Luxemburger Beckens. Die gewonnenen Erkenntnisse widerlegen das alte Konzept der Mulde von Weilerbach. Die beckenumspannenden Schnitte, sowie die strukturgeologischen und sedimentologischen Beobachtungen im Trier–Luxemburger Becken legen nahe dass die Beckenentwicklung wahrscheinlich über einer Schwächezone stattgefunden hat die durch einen verborgenen Rotliegendgraben erzeugt wird. Die vermutete Grabenstruktur mit der Bezeichnung ‚Südost-Luxemburg Graben‘ befindet sich in unmittelbarer südwestlicher Fortsetzung der Wittlicher Rotliegend-Senke. Das Fehlen von Tiefbohrungen und einer Vorhersage der Untergrundtemperaturen in der Tiefe wird durch thermische Modellierung als Mittel zur Bestimmung der tiefen geothermischen Resourcen umgangen. Für diese Herangehensweise werden tiefgreifende strukturgeologische, geologische und gesteinsphysikalische Eingangsdaten benötigt. Konzeptionelle geologische Krustenschnitte werden erstellt und dann für die Benutzung als thermische Modelle vereinfacht und auf Lithospärenmaßstab erweitert. Die thermisch stationären und konduktiven Modelle werden mittels im Labor gemessenen petrophysikalischen Eigenschaften wie der Wärmeleitfähigkeit, der radiogenen Wärmeproduktion und der Gesteinsdichte parameterisiert. Ein terrestrischer Oberflächenwärmestrom von 75 ∓ 7 (2δ) mW m–2 zur Überprufung der thermischen Modelle konnte im Untersuchungsgebiet ermittelt werden. Die Modelle sind weiter begrenzt durch die geophysikalisch ermittelte Tiefe der Lithospäre-Asthenosphärengrenze (LAB) die sich durch die 1300 °C Isotherme definiert. Eine LAB-Tiefe von 100 km, wie seismisch für den Bereich der Ardennen bekannt, führt zur besten Übereinstimmung mit dem ermittelten Oberflächenwärmestrom. Der sich ergebende Mantelwärmestrom beträgt ∼40 mW m–2. Die Modelltemperaturen liegen im Bereich von 120–125 °C in 5 km Tiefe und 600–650 °C an der Krustenuntergrenze (Moho). Die möglichen thermischen Auswirkungen des 10–20 Ma alten, sogenannten Eifelplumes, der offenbar einen Aufstieg des asthenosphärischen Mantels bis in 50–60 km Tiefe verursacht hat, wurden mit Hilfe eines thermisch stationären Szenarios modelliert und ergeben einen Oberflächenwärmestrom von mindestens 91 mW m–2 (im Fall eines Plume Top in 60 km Tiefe) im Gebiet der Eifel. Die vorliegenden Wärmestromwerte sind deutlich niedriger (65–80 mW m–2) und zeigen dass die durch den Plume bedingte Lithospären- und Krustenerwärmung die Oberfläche noch nicht erreicht hat. Nach der Erstellung der konzeptionellen geologischen Modelle und der Berechnung des thermischen Feldes kann das geothermische Potenzial von Luxemburg und den angrenzenden Gebieten abgeschätzt werden. Die Bewertung geschieht durch die Einbeziehung der Hydrogeologie, des Stressfeldes und unter Berücksichtigung tektonisch aktiver Gebiete. Zum einen werden Niedrigenthalpie-Lagerstätten in mesozoischen Aquiferen in der Trier–Luxemburger Bucht (TLE) in Betracht gezogen. Andererseits werden petrothermale Lagerstätten im unterdevonischen Grundgebirge der Ardennen und der Eifel für die Erschließung durch EGS (Enhanced/Engineered Geothermal Systems) berücksichtigt. Unter den mesozoischen Aquiferen ist der Buntsandstein Aquifer mit Temperaturen bis 50 °C ein geeignetes hydrothermales Reservoir das mittels Wärmepumpen oder direkte Wärmebereitstellung für verschiedene Nutzungsmöglichkeiten in Frage kommen könnte. Das thermisch günstigste Gebiet befindet sich im Bereich des Südost-Luxemburg Graben unter dem oberen Alzettetal sowie dem Kalksteinplateau im nördlichen Lothringen wo der Buntsandstein Aquifer unter einer mächtigen Mesozoischen Bedeckung liegt. An der Basis des vermuteten Rotliegendgrabens in demselben Gebiet werden Temperaturen bis 75 °C erwartet. Allerdings sind die geologischen Verhältnisse und die hydraulichen Eigenschaften unbekannt. In dem unterdevonischen Grundgebirge werden mächtige sandsteinlastige beziehungsweise quarzitreiche geologische Formationen mit Temperaturen >90 °C in Tiefen >3,5 km erwartet und ermöglichen wahrscheinlich eine direkte Wärmenutzung. Die geologische Situation der Südeifel einschliesslich der Region des Müllerthales nahe Echternach (Luxemburg) als tektonisch aktive Zone könnte tiefe hydrothermale Reservoire im geklüfteten unterdevonischen Grundgebirge zur Folge haben. Auf Basis der erarbeiteten Kenntnisse über das Trier–Luxemburger Becken in Luxemburg und speziell der Südeifel wurde das neue Konzept der Müllerthal–Südeifel Depression (MSD) aufgestellt. Es handelt sich um eine gegenwärtig tektonisch aktive und absinkende känozoische Struktur und hat deshalb eine große Bedeutung für die zukünftige geothermische Erkundung. Neben der direkten Nutzung geothermischer Wärme ermöglichen die mäßigen Temperaturen von 120 °C in 5 km Tiefe und eine verbesserte Durchlässigkeit der quarzitreichen Schichten des Lochkoviums mittels EGS potentiell die kombinierte Wärmebereitstellung und Stromproduktion in Luxemburg und im westlichen Bereich der Eifel. KW - Mesozoikum KW - Perm KW - Beckenentwicklung KW - Beckenstruktur KW - Eifeler Nord-Süd-Zone KW - Weilerbach-Mulde KW - Pariser Becken KW - Wittlicher Senke KW - Trier-Luxemburger Becken KW - Trier-Luxemburger Bucht KW - Oberflächenwärmefluss KW - thermische Modellierung KW - Wärmeleitfähigkeit KW - radiogene Wärmeproduktion KW - Rhenohercynische Zone KW - Luxemburg KW - Geothermie KW - Südeifel KW - Buntsandstein KW - Unterdevon KW - hydrothermale Systeme KW - petrothermale Systeme KW - Mesozoic KW - Permian KW - basin evolution KW - basin structure KW - Eifel Depression KW - Paris Basin KW - Trier-Luxembourg Basin KW - Trier-Luxembourg Embayment KW - surface heat flow KW - thermal modelling KW - thermal conductivity KW - radiogenic heat production KW - Rhenohercynian Zone KW - Luxembourg KW - geothermal energy KW - South Eifel KW - Buntsandstein KW - Lower Devonian KW - hydrothermal systems KW - petrothermal systems KW - Enhanced Geothermal Systems Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-87110 ER -