Refine
Has Fulltext
- yes (462) (remove)
Year of publication
- 2012 (462) (remove)
Document Type
- Article (157)
- Doctoral Thesis (105)
- Postprint (60)
- Monograph/Edited Volume (40)
- Preprint (27)
- Review (25)
- Part of Periodical (21)
- Master's Thesis (11)
- Other (11)
- Habilitation Thesis (2)
Language
- German (280)
- English (178)
- Multiple languages (2)
- Russian (1)
- Spanish (1)
Keywords
- Nachhaltigkeit (19)
- Curriculum Framework (18)
- European values education (18)
- Europäische Werteerziehung (18)
- Lehrevaluation (18)
- Politik (18)
- Studierendenaustausch (18)
- Unterrichtseinheiten (18)
- Wirtschaft (18)
- Zukunft (18)
Institute
- WeltTrends e.V. Potsdam (38)
- Extern (37)
- MenschenRechtsZentrum (31)
- Institut für Mathematik (30)
- Vereinigung für Jüdische Studien e. V. (28)
- Institut für Jüdische Studien und Religionswissenschaft (26)
- Institut für Biochemie und Biologie (23)
- Mathematisch-Naturwissenschaftliche Fakultät (23)
- Institut für Umweltwissenschaften und Geographie (22)
- Department Linguistik (20)
Traditionelle Verwaltungsverfahren stehen seit längerem und zunehmend in der Kritik. Das klassische Fürsorge-Modell wird vor allem im Umweltbereich nicht mehr akzeptiert. Betroffene Bürger und Verbände wollen verstärkt mitreden und Entscheidungen nicht der Verwaltung und externen Experten überlassen. Das Verfahren der Mediation wird in der Bundesrepublik Deutschland inzwischen in einer Vielzahl von öffentlich-rechtlichen Problembereichen eingesetzt. Besonders auf kommunaler Ebene bietet sich ihr Einsatz an. Diese Arbeit beschäftigt sich aus verwaltungswissenschaftlicher und -rechtlicher Perspektive mit der Mediation im Rahmen der kommunalen Bauleitplanung. Aufgrund der Innovationsoffenheit und Flexibilität bei gleichzeitiger Komplexität und Kooperationsabhängigkeit des Rechts der Bauleitplanung ist dieses besonders für die Anwendung von Mediation geeignet. Das Arbeitsheft führt in das Verfahren der Mediation und seine Begriffe ein, beleuchtet die Charakteristika und Mängel des herkömmlichen Verwaltungsverfahrens und widmet sich dann der Mediation im öffentlichen Bereich. Diese wird anhand der Möglichkeit ihres Einsatzes in der Bauleitplanung auf kommunaler Ebene näher dargestellt, ihre Vor- und Nachteile werden gegeneinander abgewogen. Somit gibt dieses Arbeitsheft eine kompakte, aber dennoch detailreiche Übersicht über den aktuellen Stand der Diskussion zur Mediation im öffentlichen Bereich.
Daniel Kehlmann gibt vor, mit seinem Roman Die Vermessung der Welt „verschwiegene oder übersehene Wahrheiten sichtbar“ zu machen. Dadurch, dass er die Leser bewusst im Zweifel lässt, was historisch belegt und was erfunden ist, entstehen Missverständnisse. Der Beitrag analysiert die wichtigsten Charakteristika des Kehlmann‘schen und des historischen Alexander von Humboldt und weist nach, dass diese nicht übereinstimmen. Der Aufsatz fragt nach Kehlmanns Rolle, der in der Öffentlichkeit gerne die Pose des Gelehrten einnimmt, seine Erfindungen jedoch nicht offenlegt und sie als angebliches Humboldt-Zitat sogar in einem wissenschaftlichen Text publiziert. Der Beitrag kommt zu dem Schluss, dass alle, die etwas für ihre Allgemeinbildung tun möchten, bei Die Vermessung der Welt an der falschen Adresse sind.
Background
High blood glucose and diabetes are amongst the conditions causing the greatest losses in years of healthy life worldwide. Therefore, numerous studies aim to identify reliable risk markers for development of impaired glucose metabolism and type 2 diabetes. However, the molecular basis of impaired glucose metabolism is so far insufficiently understood. The development of so called 'omics' approaches in the recent years promises to identify molecular markers and to further understand the molecular basis of impaired glucose metabolism and type 2 diabetes. Although univariate statistical approaches are often applied, we demonstrate here that the application of multivariate statistical approaches is highly recommended to fully capture the complexity of data gained using high-throughput methods.
Methods
We took blood plasma samples from 172 subjects who participated in the prospective Metabolic Syndrome Berlin Potsdam follow-up study (MESY-BEPO Follow-up). We analysed these samples using Gas Chromatography coupled with Mass Spectrometry (GC-MS), and measured 286 metabolites. Furthermore, fasting glucose levels were measured using standard methods at baseline, and after an average of six years. We did correlation analysis and built linear regression models as well as Random Forest regression models to identify metabolites that predict the development of fasting glucose in our cohort.
Results
We found a metabolic pattern consisting of nine metabolites that predicted fasting glucose development with an accuracy of 0.47 in tenfold cross-validation using Random Forest regression. We also showed that adding established risk markers did not improve the model accuracy. However, external validation is eventually desirable. Although not all metabolites belonging to the final pattern are identified yet, the pattern directs attention to amino acid metabolism, energy metabolism and redox homeostasis.
Conclusions
We demonstrate that metabolites identified using a high-throughput method (GC-MS) perform well in predicting the development of fasting plasma glucose over several years. Notably, not single, but a complex pattern of metabolites propels the prediction and therefore reflects the complexity of the underlying molecular mechanisms. This result could only be captured by application of multivariate statistical approaches. Therefore, we highly recommend the usage of statistical methods that seize the complexity of the information given by high-throughput methods.
Ten polyQ (polyglutamine) diseases constitute a group of hereditary, neurodegenerative, lethal disorders, characterized by neuronal loss and motor and cognitive impairments. The only common molecular feature of polyQ disease-associated proteins is the homopolymeric polyglutamine repeat. The pathological expansion of polyQ tract invariably leads to protein misfolding and aggregation, resulting in formation of the fibrillar intraneuronal deposits (aggregates) of the disease protein. The polyQ-related cellular toxicity is currently attributed to early, small, soluble aggregate species (oligomers), whereas end-stage, fibrillar, insoluble aggregates are considered to be benign. In the complex cellular environment aggregation and toxicity of mutant polyQ proteins can be affected by both the sequences of the corresponding disease protein (factors acting in cis) and the cellular environment (factors acting in trans). Additionally, the nucleus has been suggested to be the primary site of toxicity in the polyQ-based neurodegeneration. In this study, the dynamics and structure of nuclear and cytoplasmic inclusions were examined to determine the intrinsic and extrinsic factors influencing the cellular aggregation of atrophin-1, a protein implicated in the pathology of dentatorubral-pallidoluysian atrophy (DRPLA), a polyQ-based disease with complex clinical features. Dynamic imaging, combined with biochemical and biophysical approaches revealed a large heterogeneity in the dynamics of atrophin-1 within the nuclear inclusions compared with the compact and immobile cytoplasmic aggregates. At least two types of inclusions of polyQ-expanded atrophin-1 with different mobility of the molecular species and ability to exchange with the surrounding monomer pool coexist in the nucleus of the model cell system, neuroblastoma N2a cells. Furthermore, our novel cross-seeding approach which allows for monitoring of the architecture of the aggregate core directly in the cell revealed an evolution of the aggregate core of the polyQ-expanded ATN1 from one composed of the sequences flanking the polyQ domain at early aggregation phases to one dominated by the polyQ stretch in the later aggregation phase. Intriguingly, these changes in the aggregate core architecture of nuclear and cytoplasmic inclusions mirrored the changes in the protein dynamics and physico-chemical properties of the aggregates in the aggregation time course. 2D-gel analyses followed by MALDI-TOF MS (matrix-assisted laser desorption/ionization time of flight mass spectrometry) were used to detect alterations in the interaction partners of the pathological ATN1 variant compared to the non-pathological ATN1. Based on these results, we propose that the observed complexity in the dynamics of the nuclear inclusions provides a molecular explanation for the enhanced cellular toxicity of the nuclear aggregates in polyQ-based neurodegeneration.
Describing patterns
(2012)
1. What comes to your Mind when you think of 'patterns'? 2. Does your assignment include patterns? 3. Did you decide tu use some of the patterns? 4. If yes, what problem did you explain with the help of patterns? 4. Describe which patterns you used and how you used them 5. Did you explain the concept of a pattern to your pupils? 6. From your point of view – did pattern offer a helpful structure to prepare your lesson? 7. To what extent were patterns useful for the pupils to understand the main topic of the lesson? 8. How would you improve teaching patterns in your assignments? 9. If you didn ’t use any patterns , explain why. 10. What do you think about using the concept of patterns in general? 11. Will you use patterns in other lessons in the future? Describe why or why not. 12. Conclusion
Das „Gesetz zur Zahlbarmachung von Renten aus Beschäftigungen in einem Ghetto” (ZRBG) aus dem Jahre 2002 machte es erforderlich, das Phänomen und den im Gesetz verwendeten Begriff „Ghetto“ juristisch einer eindeutigen Klärung zuzuführen. Die hierbei aufgetretenen Fragen und Probleme sollen nachfolgend dargestellt werden.
Wissenschaft hat einen großen Anteil daran, internationale Umweltprobleme auf die politische Tagesordnung zu bringen und Maßnahmen zu ihrer technischen Lösung zu entwerfen. Dies gilt sowohl für den Abbau der Ozonschicht als auch für den Klimawandel. So relevant die Generierung von wissenschaftlichen Erkenntnissen in diesen Feldern ist, so komplex ist die Interaktion zwischen Wissenschaft und Politik und so schwierig ist es, Verlässliches darüber zu sagen. Thomas Hickmann analysiert das Verhältnis von Wissenschaft und Politik in internationalen Umweltregimen aus einer neuen Perspektive. Er untersucht nicht den Einfluss wissenschaftlicher Erkenntnisse auf die Politik, sondern rückt die Frage in den Fokus, inwieweit Regierungen Einfluss auf die Wissenschaft nehmen, um nationale Interessen durchzusetzen. Diese Perspektive wurde in der Forschung bislang weitgehend vernachlässigt, weshalb eine systematische Analyse dieser Frage in der Literatur fehlt.
Structural dynamics of photoexcited nanolayered perovskites studied by ultrafast x-ray diffraction
(2012)
This publication-based thesis represents a contribution to the active research field of ultrafast structural dynamics in laser-excited nanostructures. The investigation of such dynamics is mandatory for the understanding of the various physical processes on microscopic scales in complex materials which have great potentials for advances in many technological applications. I theoretically and experimentally examine the coherent, incoherent and anharmonic lattice dynamics of epitaxial metal-insulator heterostructures on timescales ranging from femtoseconds up to nanoseconds. To infer information on the transient dynamics in the photoexcited crystal lattices experimental techniques using ultrashort optical and x-ray pulses are employed. The experimental setups include table-top sources as well as large-scale facilities such as synchrotron sources. At the core of my work lies the development of a linear-chain model to simulate and analyze the photoexcited atomic-scale dynamics. The calculated strain fields are then used to simulate the optical and x-ray response of the considered thin films and multilayers in order to relate the experimental signatures to particular structural processes. This way one obtains insight into the rich lattice dynamics exhibiting coherent transport of vibrational energy from local excitations via delocalized phonon modes of the samples. The complex deformations in tailored multilayers are identified to give rise to highly nonlinear x-ray diffraction responses due to transient interference effects. The understanding of such effects and the ability to precisely calculate those are exploited for the design of novel ultrafast x-ray optics. In particular, I present several Phonon Bragg Switch concepts to efficiently generate ultrashort x-ray pulses for time-resolved structural investigations. By extension of the numerical models to include incoherent phonon propagation and anharmonic lattice potentials I present a new view on the fundamental research topics of nanoscale thermal transport and anharmonic phonon-phonon interactions such as nonlinear sound propagation and phonon damping. The former issue is exemplified by the time-resolved heat conduction from thin SrRuO3 films into a SrTiO3 substrate which exhibits an unexpectedly slow heat conductivity. Furthermore, I discuss various experiments which can be well reproduced by the versatile numerical models and thus evidence strong lattice anharmonicities in the perovskite oxide SrTiO3. The thesis also presents several advances of experimental techniques such as time-resolved phonon spectroscopy with optical and x-ray photons as well as concepts for the implementation of x-ray diffraction setups at standard synchrotron beamlines with largely improved time-resolution for investigations of ultrafast structural processes. This work forms the basis for ongoing research topics in complex oxide materials including electronic correlations and phase transitions related to the elastic, magnetic and polarization degrees of freedom.
Typische assoziative Verdicker für wässrige Systeme basieren auf linearen, doppelt hydrophob endmodifizierten Poly(ethylenglykolen) (PEGs). Diese Polymere aggregieren aufgrund ihrer Struktur in wässriger Lösung und bilden ein Netzwerk aus verbrückten Polymer-Mizellen. Dabei kann ein Polymer-Molekül maximal zwei Mizellen miteinander verbinden. Bisher ist unklar, wie die Anzahl der Endgruppen eines verzweigten, mehrfach hydrophob endmodifizierten hydrophilen Polymers die Struktur und Dynamik solcher Netzwerke beeinflusst. Die Synthese verzweigter Polymere auf PEG-Basis erfolgt mittels lebender ionischer Polymerisation und ist experimentell aufwändig. Das Einführen hydrophober Endgruppen erfordert zusätzliche Synthese-Schritte. In dieser Arbeit wurden hydrophile Sternpolymere mit hydrophoben Endgruppen in einem Schritt hergestellt. Dazu wurde die Technik der radikalischen Polymerisation unter Kettenübertragung durch reversible Addition und anschließende Fragmentierung (reversible addition-fragmentation chain transfer, RAFT) genutzt. Die Synthese der Sternpolymere erfolgte von einem multifunktionalen Kern, der die R-Gruppe der RAFT-Kettenüberträger (chain transfer agents, CTAs) bildete. Die dazu benötigten CTAs wurden so konzipiert, dass mit ihrer Hilfe sowohl die Anzahl der Arme des Sternpolymers (von 2 bis 4), als auch die Länge der hydrophoben Endgruppe (C4, C12, C18) variiert werden konnte. Der große Vorteil der RAFT-Polymerisation ist, dass sie viele polare Monomere für die Synthese der hydrophilen Arme des Sternpolymers toleriert. In dieser Arbeit wurden als Modell-Monomere Oligo(ethylenglykol)methylether-acrylat (OEGA) und N,N-Dimethylacrylamid (DMA) eingesetzt. Beide Monomere bilden nicht-ionische hydrophile Polymere. Poly(OEGA) ist ein Kammpolymer, das auf PEG basiert. Poly(DMA) besitzt dagegen eine deutlich kompaktere Struktur. Die erhaltenen amphiphilen Sternpolymere wurden umfassend molekular charakterisiert. Die Molmassen wurden mit verschiedenen GPC-Systemen bestimmt und der Grad der Endgruppenfunktionalisierung wurde mittels UV/Vis- und 1H-NMR-Spektroskopie überprüft. Die Polymerisation von OEGA zeigt mit den CTAs einige Charakteristika der Polymerisation mit reversibler Deaktivierung (RDRP, auch „kontrollierte radikalische Polymerisation“), wird aber durch Kettenübertragung zum Monomer bzw. Polymer gestört. Diese Nebenreaktion ist auf die Struktur des Monomers als Oligoether zurückzuführen. Bei allen untersuchten Polymerisationen von DMA mit den multifunktionalen CTAs steigt die Molmasse linear mit dem Umsatz. Die erhaltenen Polymere zeigen durchweg monomodale und enge Molmassenverteilungen (PDI ≤ 1,2). Die Molmassen lassen sich in einem weiten Bereich von 25 kg/mol bis 150 kg/mol einstellen und die Endgruppen der Polymere bleiben zu 90 % erhalten. Während die Polymerisation von DMA sowohl mit den di- als auch den trifunktionalen CTAs innerhalb von 3 h zu quantitativen Umsätzen verläuft, wird der quantitative Umsatz des Monomers bei der Polymerisation mit tetrafunktionalen CTAs erst nach 4 h erreicht. Diese Verzögerung ist auf eine Retardierung in der Anfangsphase der Polymerisation zurückzuführen, die sich aus der besonderen Struktur der tetrafunktionalen CTAs erklärt. Auf dem System zur Polymerisation von DMA aufbauend ließen sich Gradienten-Block-Copolymere in Eintopfreaktionen herstellen. Dazu wurde nach Erreichen des quantitativen Umsatzes von DMA ein zweites Monomer zur Reaktionsmischung gegeben. Mit Ethylacrylat (EtA) wurden so lineare amphiphile symmetrische Triblock-Copolymere erhalten. Dabei wurde die Länge des hydrophoben Blocks durch unterschiedliche Mengen an EtA variiert. Mit N,N-Diethylacrylamid (DEA) wurden lineare symmetrische Triblock-Copolymere sowie 3-Arm Stern-Diblock-Copolymere hergestellt, die über einen thermisch schaltbaren zweiten Block verfügen. Bei diesen Polymeren lässt sich die Länge des hydrophoben Teils in situ durch Veränderung der Temperatur variieren. Das Verhalten der amphiphilen Sternpolymere in wässriger Lösung und in Mikroemulsion wurde im Rahmen einer Kooperation an der TU Berlin mit Hilfe von Kleinwinkel-Neutronenstreuung (SANS), dynamischer Lichtstreuung (DLS) und Rheologie untersucht. Die Polymere wirken durch Assoziation der hydrophoben Endgruppen als effektive Verdicker sowohl allein in wässriger Lösung als auch in Mikroemulsion. Die Struktur des gebildeten Netzwerks hängt dabei von der Konzentration des Polymers in der Lösung und der Länge der Endgruppe (Hydrophobie) ab. Die dynamischen Eigenschaften der Lösungen werden außerdem durch die Anzahl der Arme der Polymere bestimmt.
Klimapolitik am Ende?
(2012)
This article deals with Spanish modal adverbs and verbs of cognitive attitude (Capelli 2007) and their epistemic and/or evidential use. The article is based upon the hypothesis that the study of the use of these linguistic devices has to be highly context-sensitive, as it is not always (only) the sentence level that has to be looked at if one wants to find out whether a certain adverb or verb of cognitive attitude is used evidentially or epistemically. In this article, therefore, the context is used to determine which meaning aspects of an element are encoded and which are contributed by the context. The data were retrieved from the daily newspaper El País. Nevertheless, the present study is not a quantitative one, but rather a qualitative study. My corpus analysis indicates that it is not possible to differentiate between the linguistic categories of evidentiality and epistemic modality in every case, although it indeed is possible in the vast majority of cases. In verbs of cognitive attitude, evidentiality and epistemic modality seem to be two interwoven categories, while concerning modal adverbs it is usually possible to separate the categories and to distinguish between the different subtypes of evidentiality such as visual evidence, hearsay and inference.
Mediale Aufregung wie selten, aber auch intensive Gespräche und Verhandlungen über Investitionsabkommen. So könnte man knapp das jüngste Treffen zwischen der Europäischen Union und der Volksrepublik China Ende September dieses Jahres umreißen. Es gab sehr kritische Worte vom chinesischen Premier Wen Jiabao an die Adresse der EU. Peking kritisierte die Nichtanerkennung als Marktwirtschaft, das Waffenembargo und die Behinderung des Zugangs zum EU-Markt. Brüssel hielt entgegen: Nichteinhaltung individueller Menschenrechte, Raubbau an der Natur und die Tatsache, dass geistiges Eigentum nicht geschützt ist. Neben der Kritik offerierte China eine erste Skizze für ein Handels- und Partnerschaftsabkommens, dass den Beziehungen eine wahrhaft strategische Perspektive geben kann. Der jüngste EU-China-Gipfel zeigte (erneut) das zwiespältige Verhältnis zwischen den „strategischen Partnern“.
Inhalt: Introduction Developments in creating corpora dlexDB, subtitles, and tabloid newspapers Rating corpus emotionality Current study Method Materials Corpora Results Type-token ratio Validity: Effects of task difficulty Emotionality of a corpus Validity: Effects of emotionality Discussion Outlook References
MDE techniques are more and more used in praxis. However, there is currently a lack of detailed reports about how different MDE techniques are integrated into the development and combined with each other. To learn more about such MDE settings, we performed a descriptive and exploratory field study with SAP, which is a worldwide operating company with around 50.000 employees and builds enterprise software applications. This technical report describes insights we got during this study. For example, we identified that MDE settings are subject to evolution. Finally, this report outlines directions for future research to provide practical advises for the application of MDE settings.
Der boomende Wirtschaftsriese China erfährt weltweit immer mehr Aufmerksamkeit von Politik, Wirtschaft, Wissenschaft und Öffentlichkeit. Gleichzeitig werden aber auch innere soziale Probleme und die großen regionalen Disparitäten des Landes angesprochen. Auch Berichte über die Situation der Wanderarbeiter in den Großstädten des Landes häufen sich. Obwohl sich die Wissenschaft ebenfalls dieses Themas angenommen hat, mangelt es noch an Untersuchungen darüber, insbesondere an solchen, die eingehend und systematisch mit empirischen Erhebungen „vor Ort“ dieses Phänomen studieren. In diese Lücke stößt die Dissertation von Ling He. In ihrem Mittelpunkt steht das Alltagsleben der Arbeitsmigranten in Peking. Dabei werden behandelt: die Migrationsmotive, die strukturellen und individuellen Rahmenbedingungen für die Arbeitsmigranten und ihre Familien, die Arbeits- und Lebensbedingungen, die Bildung finanzieller Ressourcen sowie auch die Konstruktion sozialer Netzwerke und die Integration der Migranten in Peking. Außerdem geht die Dissertation ein auf die Vorteile, die für die etwa 17 Millionen Einwohner zählende Stadt durch die Beschäftigung der etwa 3 Millionen Arbeitsmigranten geschaffen werden, und sie weist auf die sozialen und ökonomischen Probleme hin, die im Zusammenhang mit der Arbeitsmigration gelöst werden müssten.
Abschied von KyotoPlus?
(2012)
Die Ergebnisse des Klimagipfels von Kopenhagen sind eine bittere
Enttäuschung für die EU. Ihr ist es nicht gelungen, ihren Führungsambitionen
beim globalen Klimaschutz gerecht zu werden und die
Konferenz zur Weichenstellung für ein rechtsverbindliches Klimaabkommen
nach 2012 zu nutzen. Damit steht die Union vor grundlegenden
strategischen Fragen zum Kurs ihrer Klimapolitik.
Wie Klimaschutz finanzieren?
(2012)
Zur Finanzierung von Klimaschutz müssen öffentliche Mittel gezielt
eingesetzt werden. Dies beinhaltet auch die Rahmenbedingungen für
private Finanzströme signifikant zu verbessern. Anhand einer Problemanalyse
bestimmen die Autoren Eckdaten für diese Hebelwirkung.
Öffentliche Anschubfinanzierung kann somit die Grundlage für private
Investitionen sein. Dies wird exemplarisch an der Internationalen
Klimaschutzinitiative des Bundesumweltministeriums diskutiert.
Staaten und Nichtregierungsorganisationen bemühen sich seit zwei Jahrzehnten um eine stärkere globale Regulierung des (Klein-)Waffenhandels. Im Juli 2012 wurde im Rahmen der UN erstmals über einen Waffenhandelsvertrag verhandelt. Doch ein solches Abkommen kam nicht zustande. Was sind die Hinter- gründe dieses Scheiterns? Welche Perspektiven gibt es nun und warum sind internationale Regeln unverzichtbar?
Die Strahlentherapie ist neben der Chemotherapie und einer operativen Entfernung die stärkste Waffe für die Bekämpfung bösartiger Tumore in der Krebsmedizin. Nach Herz-Kreislauf-Erkrankungen ist Krebs die zweithäufigste Todesursache in der westlichen Welt, wobei Prostatakrebs heutzutage die häufigste, männliche Krebserkrankung darstellt. Trotz technologischer Fortschritte der radiologischen Verfahren kann es noch viele Jahre nach einer Radiotherapie zu einem Rezidiv kommen, was zum Teil auf die hohe Resistenzfähigkeit einzelner, entarteter Zellen des lokal vorkommenden Tumors zurückgeführt werden kann. Obwohl die moderne Strahlenbiologie viele Aspekte der Resistenzmechanismen näher beleuchtet hat, bleiben Fragestellungen, speziell über das zeitliche Ansprechen eines Tumors auf ionisierende Strahlung, größtenteils unbeantwortet, da systemweite Untersuchungen nur begrenzt vorliegen. Als Zellmodelle wurden vier Prostata-Krebszelllinien (PC3, DuCaP, DU-145, RWPE-1) mit unterschiedlichen Strahlungsempfindlichkeiten kultiviert und auf ihre Überlebensfähigkeit nach ionisierender Bestrahlung durch einen Trypanblau- und MTT-Vitalitätstest geprüft. Die proliferative Kapazität wurde mit einem Koloniebildungstest bestimmt. Die PC3 Zelllinie, als Strahlungsresistente, und die DuCaP Zelllinie, als Strahlungssensitive, zeigten dabei die größten Differenzen bezüglich der Strahlungsempfindlichkeit. Auf Grundlage dieser Ergebnisse wurden die beiden Zelllinien ausgewählt, um anhand ihrer transkriptomweiten Genexpressionen, eine Identifizierung potentieller Marker für die Prognose der Effizienz einer Strahlentherapie zu ermöglichen. Weiterhin wurde mit der PC3 Zelllinie ein Zeitreihenexperiment durchgeführt, wobei zu 8 verschiedenen Zeitpunkten nach Bestrahlung mit 1 Gy die mRNA mittels einer Hochdurchsatz-Sequenzierung quantifiziert wurde, um das dynamisch zeitversetzte Genexpressionsverhalten auf Resistenzmechanismen untersuchen zu können. Durch das Setzen eines Fold Change Grenzwertes in Verbindung mit einem P-Wert < 0,01 konnten aus 10.966 aktiven Genen 730 signifikant differentiell exprimierte Gene bestimmt werden, von denen 305 stärker in der PC3 und 425 stärker in der DuCaP Zelllinie exprimiert werden. Innerhalb dieser 730 Gene sind viele stressassoziierte Gene wiederzufinden, wie bspw. die beiden Transmembranproteingene CA9 und CA12. Durch Berechnung eines Netzwerk-Scores konnten aus den GO- und KEGG-Datenbanken interessante Kategorien und Netzwerke abgeleitet werden, wobei insbesondere die GO-Kategorien Aldehyd-Dehydrogenase [NAD(P)+] Aktivität (GO:0004030) und der KEGG-Stoffwechselweg der O-Glykan Biosynthese (hsa00512) als relevante Netzwerke auffällig wurden. Durch eine weitere Interaktionsanalyse konnten zwei vielversprechende Netzwerke mit den Transkriptionsfaktoren JUN und FOS als zentrale Elemente identifiziert werden. Zum besseren Verständnis des dynamisch zeitversetzten Ansprechens der strahlungsresistenten PC3 Zelllinie auf ionisierende Strahlung, konnten anhand der 10.840 exprimierten Gene und ihrer Expressionsprofile über 8 Zeitpunkte interessante Einblicke erzielt werden. Während es innerhalb von 30 min (00:00 - 00:30) nach Bestrahlung zu einer schnellen Runterregulierung der globalen Genexpression kommt, folgen in den drei darauffolgenden Zeitabschnitten (00:30 - 01:03; 01:03 - 02:12; 02:12 - 04:38) spezifische Expressionserhöhungen, die eine Aktivierung schützender Netzwerke, wie die Hochregulierung der DNA-Reparatursysteme oder die Arretierung des Zellzyklus, auslösen. In den abschließenden drei Zeitbereichen (04:38 - 09:43; 09:43 - 20:25; 20:25 - 42:35) liegt wiederum eine Ausgewogenheit zwischen Induzierung und Supprimierung vor, wobei die absoluten Genexpressionsveränderungen ansteigen. Beim Vergleich der Genexpressionen kurz vor der Bestrahlung mit dem letzten Zeitpunkt (00:00 - 42:53) liegen mit 2.670 die meisten verändert exprimierten Gene vor, was einer massiven, systemweiten Genexpressionsänderung entspricht. Signalwege wie die ATM-Regulierung des Zellzyklus und der Apoptose, des NRF2-Signalwegs nach oxidativer Stresseinwirkung und die DNA-Reparaturmechanismen der homologen Rekombination, des nicht-homologen End Joinings, der MisMatch-, der Basen-Exzision- und der Strang-Exzision-Reparatur spielen bei der zellulären Antwort eine tragende Rolle. Äußerst interessant sind weiterhin die hohen Aktivitäten RNA-gesteuerter Ereignisse, insbesondere von small nucleolar RNAs und Pseudouridin-Prozessen. Demnach scheinen diese RNA-modifizierenden Netzwerke einen bisher unbekannten funktionalen und schützenden Einfluss auf das Zellüberleben nach ionisierender Bestrahlung zu haben. All diese schützenden Netzwerke mit ihren zeitspezifischen Interaktionen sind essentiell für das Zellüberleben nach Einwirkung von oxidativem Stress und zeigen ein komplexes aber im Einklang befindliches Zusammenspiel vieler Einzelkomponenten zu einem systemweit ablaufenden Programm.
Religion
(2012)
Die eingehende Analyse ausgewählter Aspekte der Wort-Ton-Gestaltung in Gustav Mahlers Vokalsinfonik ist Schwerpunkt der vorliegenden Untersuchung. Prämisse ist Mahlers Ausarbeitung ideenprogrammatischer Intentionen, wobei er sich die besondere Stärke der Musik, geistige Sachverhalte in gewisser Weise präziser als Sprache (die hier ins Symbolhafte ausweichen muss) verdeutlichen zu können, offensichtlich bewusst zunutze gemacht hatte. Die Differenziertheit der musikalischen Textinterpretation, zugleich Fokus der Analysen, weist deutliche graduelle Unterschiede auf. Sie reicht vom ,Vertonungscharakter‘ bis hin zur innigsten Anverwandlung von Musik und Textaussage bzw. -semantik. Wesentlich ist das oft proportionale Verhältnis von Grad der Freiheit, die sich Mahler hinsichtlich der Beziehung der Musik zur formalen Topographie des Textes nimmt, zu Intensität und Vielschichtigkeit der musikalischen Textexegese. Je stärker sich ihre musikalische Umsetzung in Richtung ‚Semantik-Ausarbeitung‘ bewegt, verliert die äußerliche Sprache an Materialität, wobei das im Lied von der Erde zutage tretende Amalgam von sprachlicher Semantik und Musik gesondert zu nennen ist. Letztendlich wird die überwiegend eher unbestimmte Textsemantik durch Mahlers Musik denotiert und in zuvor im Bereich der Vokalsinfonik nicht erreichter Intensität zum Klingen gebracht.
Thermal and quantum fluctuations of the electromagnetic near field of atoms and macroscopic bodies play a key role in quantum electrodynamics (QED), as in the Lamb shift. They lead, e.g., to atomic level shifts, dispersion interactions (Van der Waals-Casimir-Polder interactions), and state broadening (Purcell effect) because the field is subject to boundary conditions. Such effects can be observed with high precision on the mesoscopic scale which can be accessed in micro-electro-mechanical systems (MEMS) and solid-state-based magnetic microtraps for cold atoms (‘atom chips’). A quantum field theory of atoms (molecules) and photons is adapted to nonequilibrium situations. Atoms and photons are described as fully quantized while macroscopic bodies can be included in terms of classical reflection amplitudes, similar to the scattering approach of cavity QED. The formalism is applied to the study of nonequilibrium two-body potentials. We then investigate the impact of the material properties of metals on the electromagnetic surface noise, with applications to atomic trapping in atom-chip setups and quantum computing, and on the magnetic dipole contribution to the Van der Waals-Casimir-Polder potential in and out of thermal equilibrium. In both cases, the particular properties of superconductors are of high interest. Surface-mode contributions, which dominate the near-field fluctuations, are discussed in the context of the (partial) dynamic atomic dressing after a rapid change of a system parameter and in the Casimir interaction between two conducting plates, where nonequilibrium configurations can give rise to repulsion.
Portal alumni
(2012)
Das zurückliegende Jahr stand an der Universität Potsdam auch im Zeichen des zwanzigjährigen Jubiläums der Hochschule. Am 15. Juli 1991, wurde sie gegründet und während einer Festwoche feierten Professorinnen und Professoren, Mitarbeiterinnen, Mitarbeiter und Studierende dieses Jubiläum gebührend. Seit der Gründung der größten brandenburgischen Hochschule sind wissenschaftliches Renommee, Ansehen und Attraktivität stetig gewachsen. Gerade in den letzten Jahren hat sie ihr Profil geschärft. Vor allem die Kognitions-, die Geo- und Biowissenschaften sind hier zu nennen. Aber auch die Lehrerbildung besitzt einen hohen Stellenwert. International anerkannte Forschungsbereiche, Wissenschaftspreise, eine erfolgreiche Drittmittelbilanz und nicht zuletzt die bauliche Entwicklung an allen drei Standorten sind sichtbare Indikatoren für die erfolgreiche Entwicklung, die die Universität Potsdam in den letzten zwei Jahrzehnten durchlaufen hat. Die drei ehemaligen Präsidenten sowie verschiedene andere Protagonisten werfen in dieser Ausgabe der Portal Alumni einen Blick auf unterschiedliche Aspekte der zurückliegenden Entwicklung der Universität. Vom Erfolg der Universität zeugt auch die wachsende Zahl der Absolventinnen und Absolventen, die die Universität verlassen. Portal Alumni stellt in der vorliegenden Ausgabe deshalb Absolventen und deren universitäre und berufliche Lebenswege genauer vor und lässt damit zugleich kaleidoskopartig 20 Jahre Studium an der Universität Potsdam Revue passieren.
Aktuelle Fragen des Menschenrechtsschutzes : 1. Potsdamer Menschenrechtstag am 26. Oktober 2011
(2012)
Aus Anlass der Neubesetzung des Menschenrechtszentrums mit den Direktoren Prof. Dr. Andreas Zimmermann, LL.M. (Harvard) und Prof. Dr. Logi Gunnarsson fand am 26.10.2011 der Potsdamer Menschenrechtstag unter der Themenstellung „Aktuelle Fragen des Menschenrechtsschutzes“ statt. Ganz im Sinne der interdisziplinären Ausrichtung des MenschenRechtsZentrums der Universität Potsdam beschäftigten sich die beiden Direktoren in ihren Einführungsvorträgen aus ihrer jeweiligen Disziplin heraus mit philosophischen und rechtlichen Problemstellungen der Menschenrechte und ihres Schutzes.
rezensiertes Werk: Magdalena Bendowska, Jan Doktór: Świat ukryty w Księgach. Stare Druki hebrajskie ze zbiorów Żydowskiego Instytutu Historycznego [Die Welt, in Büchern verborgen – Alte hebräische Drucke aus den Sammlungen des Jüdischen Historischen Instituts in Warschau]. - Warschau : 2011, 140 S. ISBN 978-83-61850-40-3
Die Ausstellung "Die Geschichte des Standortes Potsdam-Golm 1935 bis 1991" zeigt die wechselvolle Historie des jetzigen Universitäts- und Wissenschaftsstandortes. Die Ursprünge finden sich in der 1935 errichteten General-Wever-Kaserne. Nach der Beendigung des Zweiten Weltkrieges und bis zur Wende nutzten sowohl die sowjetische Armee als auch das Ministerium für Staatssicherheit das Gelände. Thematisiert werden unter anderem die militärische Zentralregion Brandenburg, die Herausbildung der Geheimdiensthochschule von 1951 bis 1990, die Lehre an dieser Einrichtung, das Studienleben und die Forschungstätigkeit sowie die Nutzung des Standortes nach 1990.
Die Ausstellung besteht aus 13 mit zahlreichen Fotos versehenen Tafeln.
Portal Wissen = Raum
(2012)
Mit „Portal Wissen“ laden wir Sie ein, die Forschung an der Universität Potsdam zu entdecken und in ihrer Vielfalt kennenzulernen. In der ersten Ausgabe dreht sich alles um „Räume“. Räume, in denen geforscht wird, solche, die es zu erforschen gilt, andere, die durch Wissenschaft zugänglich oder erschlossen werden, aber auch Räume, die Wissenschaft braucht, um sich entfalten zu können. Forschung vermisst Räume: „Wissenschaft wird von Menschen gemacht“, schrieb der Physiker Werner Heisenberg. Umgekehrt lässt sich sagen: Wissenschaft macht Menschen, widmet sich ihnen, beeinflusst sie. Dieser Beziehung ist „Portal Wissen“ nachgegangen. Wir haben Wissenschaftler getroffen, sie gefragt, wie aus ihren Fragen Projekte entstehen, haben sie auf dem oft verschlungenen Weg zum Ziel begleitet. Ein besonderes Augenmerk dieses Heftes gilt den „Kulturellen Begegnungsräumen“, denen ein eigener Profilbereich der Forschung an der Universität Potsdam gewidmet ist.
Forschung hat Räume: Labore, Bibliotheken, Gewächshäuser oder Archive – hier ist Wissenschaft zu Liebe Leserinnen und Leser, Hause. All diese Orte sind so einzigartig wie die Wissenschaftler, die in ihnen arbeiten, oder die Untersuchungen, die hier stattfinden. Erst die Vision davon, wie ein Problem zu lösen ist, macht aus einfachen Zimmern „Laborräume“. Wir haben ihre Türen geöffnet, um zu zeigen, was – und wer – sich dahinter befindet.
Forschung eröffnet Räume: Wenn Wissenschaft erfolgreich ist, bewegt sie uns, bringt uns voran. Auf dem Weg einer wissenschaftlichen Erkenntnis aus dem Labor in den Alltag stehen mitunter Hürden, die meist nicht auf den ersten Blick zu erkennen sind. Auf jeden Fall aber ist ihre Anwendung erster Ausgangspunkt von Wissenschaft, Antrieb und Motivation jedes Forschers. „Portal Wissen“ zeigt, welche „Praxisräume“ sich aus der Übersetzung von Forschungsresultaten ergeben. Dort, wo wir es unbedingt erwarten, und dort, wo vielleicht nicht.
Forschung erschließt Räume: Bei Expeditionen, Feldversuchen und Exkursionen wird nahezu jede Umgebung zum mobilen Labor. So eröffnet Wissenschaft Zugänge auch zu Orten, die auf vielfach andere Weise verschlossen oder unzugänglich scheinen. Wir haben uns in Forscher- Reisetaschen gemogelt, um bei Entdeckungsreisen dabei zu sein, die weit weg – vor allem nach Afrika – führen. Zugleich haben wir beobachtet, wie „Entwicklungsräume“ sich auch von Potsdam aus erschließen lassen oder zumindest ihre Vermessung in Potsdam beginnen kann.
Forschung braucht Räume: Wissenschaft hat zwei Geschlechter, endlich. Noch nie waren so viele Frauen in der Forschung tätig wie derzeit. Ein Grund zum Ausruhen ist dies gleichwohl nicht. Deutschlandweit ist aktuell nur jede fünfte Professur von einer Frau besetzt. „Portal Wissen“ schaut, welche „Entwicklungsräume“ Frauen sich in der Wissenschaft, aber auch darüber hinaus geschaffen haben. Und wo sie ihnen verwehrt werden. Wir wünschen Ihnen eine anregende Lektüre und dass auch Sie einen Raum finden, der Sie inspiriert.
Prof. Dr. Robert Seckler
Vizepräsident für Forschung und wissenschaftlichen Nachwuchs
We consider the Dirichlet, Neumann and Zaremba problems for harmonic functions in a bounded plane domain with nonsmooth boundary. The boundary curve belongs to one of the following three classes: sectorial curves, logarithmic spirals and spirals of power type. To study the problem we apply a familiar method of Vekua-Muskhelishvili which consists in using a conformal mapping of the unit disk onto the domain to pull back the problem to a boundary problem for harmonic functions in the disk. This latter is reduced in turn to a Toeplitz operator equation on the unit circle with symbol bearing discontinuities of second kind. We develop a constructive invertibility theory for Toeplitz operators and thus derive solvability conditions as well as explicit formulas for solutions.
Für den Einsatz in Autobatterien gibt es besondere Anforderungen an den Elektrolyten im Bereich der Energie- und Leistungsdichten, um beispielsweise thermische Verluste gering zu halten. Hochleitfähige Elektrolyte mit Leitfähigkeiten im Millisiemensbereich sind hier ebenso notwendig wie auch sichere, d.h. möglichst nicht brennbare und einen niedrigen Dampfdruck besitzende Materialien. Um diese Vorgaben zu erreichen, ist es notwendig, einen polymeren Separator zu entwickeln, welcher auf brennbare organische Lösungsmittel verzichtet und damit eine drastische Steigerung der Sicherheit gewährleistet. Gleichzeitig müssen hierbei die Leistungsvorgaben bezüglich der Leitfähigkeit erfüllt werden. Zu diesem Zweck wurde ein Konzept basierend auf der Kombination von einer polymeren sauerstoffreichen Matrix und einer ionischen Flüssigkeit entwickelt und verifiziert. Dabei wurden folgende Erkenntnisse gewonnen: 1. Es wurden neuartige diacrylierte sauerstoffreiche Matrixkomponenten mit vielen Carbonylfunktionen, für eine gute Lithiumleitfähigkeit, synthetisiert. 2. Es wurden mehrere neue ionische Flüssigkeiten sowohl auf Imidazolbasis als auch auf Ammoniumbasis synthetisiert und charakterisiert. 3. Die Einflüsse der Kationenstruktur und der Einfluss der Gegenionen im Bezug auf Schmelzpunkte und Leitfähigkeiten wurden untersucht. 4. Aus den entwickelten Materialien wurden Blendsysteme hergestellt und mittels Impedanzspektrometrie untersucht: Leitfähigkeiten von 10-4S/cm bei Raumtemperatur sind realisierbar. 5. Die Blendsysteme wurden auf ihre thermische Stabilität hin untersucht: Stabilitäten bis 250°C sind erreichbar. Dabei wird keine kristalline Struktur beobachtet.
This article examines Pierre Nora’s concept of memory using the examples of York and Winchester to demonstrate the individuality of local approaches to the memory of medieval Anglo-Jewries. Overall, this paper will highlight how memory can be rescued from a period of prolonged silence and reintegrated back into a wider historical narrative. Conversely it will also examine how in stark contrast to this new attitude of remembering the silence surrounding Jewish memory continues to exist elsewhere. Finally this paper will ask why this silence remains, and question whether Nora’s theory that memory is constantly evolving is applicable to the experiences of Jewish memory in York and Winchester.
Tiger, Regenwald, Sprache
(2012)
Уголовно-процессуальный кодекс ФРГ (УПК ФРГ) является основным законодательным актом, регулирующим немецкий уголовный процесс. В данное издание входят трансформация УПК ФРГ на русский язык и юридические комментарии, призванные облегчить читателю правильное языковое понимание и правовое толкование текста немецкого уголовно-процессуального закона. Трансформация текста закона основана на принципах функционального перевода, подразумевающего точную передачу смысла закона, в соответствии с научным толкованием юридических терминов и правовых институтов, объяснённым в комментариях. Помимо толкования понятий, в комментариях кратко представлены актуальные дискуссии в доктрине и судебной практике в отношении отдельных норм, а также последние изменения и дополнения, внесённые в закон, и краткая информация о содержании других законодательных актов, связанных с положениями УПК ФРГ. Вступительная статья содержит обзор уголовного процесса ФРГ и представляет собой введение в немецкое уголовно-процессуальное право. Книга адресована не только юристам-практикам и правоведам, но и всем тем, кто в силу профессиональной деятельности или в процессе обучения интересуется уголовным процессом ФРГ. Текст закона представлен в редакции от 21 июля 2012 года.
Virtual 3D city and landscape models are the main subject investigated in this thesis. They digitally represent urban space and have many applications in different domains, e.g., simulation, cadastral management, and city planning. Visualization is an elementary component of these applications. Photo-realistic visualization with an increasingly high degree of detail leads to fundamental problems for comprehensible visualization. A large number of highly detailed and textured objects within a virtual 3D city model may create visual noise and overload the users with information. Objects are subject to perspective foreshortening and may be occluded or not displayed in a meaningful way, as they are too small. In this thesis we present abstraction techniques that automatically process virtual 3D city and landscape models to derive abstracted representations. These have a reduced degree of detail, while essential characteristics are preserved. After introducing definitions for model, scale, and multi-scale representations, we discuss the fundamentals of map generalization as well as techniques for 3D generalization. The first presented technique is a cell-based generalization of virtual 3D city models. It creates abstract representations that have a highly reduced level of detail while maintaining essential structures, e.g., the infrastructure network, landmark buildings, and free spaces. The technique automatically partitions the input virtual 3D city model into cells based on the infrastructure network. The single building models contained in each cell are aggregated to abstracted cell blocks. Using weighted infrastructure elements, cell blocks can be computed on different hierarchical levels, storing the hierarchy relation between the cell blocks. Furthermore, we identify initial landmark buildings within a cell by comparing the properties of individual buildings with the aggregated properties of the cell. For each block, the identified landmark building models are subtracted using Boolean operations and integrated in a photo-realistic way. Finally, for the interactive 3D visualization we discuss the creation of the virtual 3D geometry and their appearance styling through colors, labeling, and transparency. We demonstrate the technique with example data sets. Additionally, we discuss applications of generalization lenses and transitions between abstract representations. The second technique is a real-time-rendering technique for geometric enhancement of landmark objects within a virtual 3D city model. Depending on the virtual camera distance, landmark objects are scaled to ensure their visibility within a specific distance interval while deforming their environment. First, in a preprocessing step a landmark hierarchy is computed, this is then used to derive distance intervals for the interactive rendering. At runtime, using the virtual camera distance, a scaling factor is computed and applied to each landmark. The scaling factor is interpolated smoothly at the interval boundaries using cubic Bézier splines. Non-landmark geometry that is near landmark objects is deformed with respect to a limited number of landmarks. We demonstrate the technique by applying it to a highly detailed virtual 3D city model and a generalized 3D city model. In addition we discuss an adaptation of the technique for non-linear projections and mobile devices. The third technique is a real-time rendering technique to create abstract 3D isocontour visualization of virtual 3D terrain models. The virtual 3D terrain model is visualized as a layered or stepped relief. The technique works without preprocessing and, as it is implemented using programmable graphics hardware, can be integrated with minimal changes into common terrain rendering techniques. Consequently, the computation is done in the rendering pipeline for each vertex, primitive, i.e., triangle, and fragment. For each vertex, the height is quantized to the nearest isovalue. For each triangle, the vertex configuration with respect to their isovalues is determined first. Using the configuration, the triangle is then subdivided. The subdivision forms a partial step geometry aligned with the triangle. For each fragment, the surface appearance is determined, e.g., depending on the surface texture, shading, and height-color-mapping. Flexible usage of the technique is demonstrated with applications from focus+context visualization, out-of-core terrain rendering, and information visualization. This thesis presents components for the creation of abstract representations of virtual 3D city and landscape models. Re-using visual language from cartography, the techniques enable users to build on their experience with maps when interpreting these representations. Simultaneously, characteristics of 3D geovirtual environments are taken into account by addressing and discussing, e.g., continuous scale, interaction, and perspective.
During the overall development of complex engineering systems different modeling notations are employed. For example, in the domain of automotive systems system engineering models are employed quite early to capture the requirements and basic structuring of the entire system, while software engineering models are used later on to describe the concrete software architecture. Each model helps in addressing the specific design issue with appropriate notations and at a suitable level of abstraction. However, when we step forward from system design to the software design, the engineers have to ensure that all decisions captured in the system design model are correctly transferred to the software engineering model. Even worse, when changes occur later on in either model, today the consistency has to be reestablished in a cumbersome manual step. In this report, we present in an extended version of [Holger Giese, Stefan Neumann, and Stephan Hildebrandt. Model Synchronization at Work: Keeping SysML and AUTOSAR Models Consistent. In Gregor Engels, Claus Lewerentz, Wilhelm Schäfer, Andy Schürr, and B. Westfechtel, editors, Graph Transformations and Model Driven Enginering - Essays Dedicated to Manfred Nagl on the Occasion of his 65th Birthday, volume 5765 of Lecture Notes in Computer Science, pages 555–579. Springer Berlin / Heidelberg, 2010.] how model synchronization and consistency rules can be applied to automate this task and ensure that the different models are kept consistent. We also introduce a general approach for model synchronization. Besides synchronization, the approach consists of tool adapters as well as consistency rules covering the overlap between the synchronized parts of a model and the rest. We present the model synchronization algorithm based on triple graph grammars in detail and further exemplify the general approach by means of a model synchronization solution between system engineering models in SysML and software engineering models in AUTOSAR which has been developed for an industrial partner. In the appendix as extension to [19] the meta-models and all TGG rules for the SysML to AUTOSAR model synchronization are documented.
Nucleation and growth of unsubstituted metal phthalocyanine films from solution on planar substrates
(2012)
In den vergangenen Jahren wurden kosteneffiziente nasschemische Beschichtungsverfahren für die Herstellung organischer Dünnfilme für verschiedene opto-elektronische Anwendungen entdeckt und weiterentwickelt. Unter anderem wurden Phthalocyanin-Moleküle in photoaktiven Schichten für die Herstellung von Solarzellen intensiv erforscht. Aufgrund der kleinen bzw. unbekannten Löslichkeit wurden Phthalocyanin-Schichten durch Aufdampfverfahren im Vakuum hergestellt. Des Weiteren wurde die Löslichkeit durch chemische Synthese erhöht, was aber die Eigenschaften von Pc beeinträchtigte. In dieser Arbeit wurde die Löslichkeit, optische Absorption und Stabilität von 8 verschiedenen unsubstituierten Metall-Phthalocyaninen in 28 verschiedenen Lösungsmitteln quantitativ gemessen. Wegen ausreichender Löslichkeit, Stabilität und Anwendbarkeit in organischen Solarzellen wurde Kupferphthalocyanin (CuPc) in Trifluoressigsäure (TFA) für weitere Untersuchungen ausgewählt. Durch die Rotationsbeschichtung von CuPc aus TFA Lösung wurde ein dünner Film aus der verdampfenden Lösung auf dem Substrat platziert. Nach dem Verdampfen des Lösungsmittels, die Nanobändern aus CuPc bedecken das Substrat. Die Nanobänder haben eine Dicke von etwa ~ 1 nm (typische Dimension eines CuPc-Molekül) und variierender Breite und Länge, je nach Menge des Materials. Solche Nanobändern können durch Rotationsbeschichtung oder auch durch andere Nassbeschichtungsverfahren, wie Tauchbeschichtung, erzeugt werden. Ähnliche Fibrillen-Strukturen entstehen durch Nassbeschichtung von anderen Metall-Phthalocyaninen, wie Eisen- und Magnesium-Phthalocyanin, aus TFA-Lösung sowie auf anderen Substraten, wie Glas oder Indium Zinnoxid. Materialeigenschaften von aufgebrachten CuPc aus TFA Lösung und CuPc in der Lösung wurden ausführlich mit Röntgenbeugung, Spektroskopie- und Mikroskopie Methoden untersucht. Es wird gezeigt, dass die Nanobänder nicht in der Lösung, sondern durch Verdampfen des Lösungsmittels und der Übersättigung der Lösung entstehen. Die Rasterkraftmikroskopie wurde dazu verwendet, um die Morphologie des getrockneten Films bei unterschiedlicher Konzentration zu studieren. Der Mechanismus der Entstehung der Nanobändern wurde im Detail studiert. Gemäß der Keimbildung und Wachstumstheorie wurde die Entstehung der CuPc Nanobänder aus einer übersättigt Lösung diskutiert. Die Form der Nanobändern wurde unter Berücksichtigung der Wechselwirkung zwischen den Molekülen und dem Substrat diskutiert. Die nassverarbeitete CuPc-Dünnschicht wurde als Donorschicht in organischen Doppelschicht Solarzellen mit C60-Molekül, als Akzeptor eingesetzt. Die Effizienz der Energieumwandlung einer solchen Zelle wurde entsprechend den Schichtdicken der CuPc Schicht untersucht.
Inhalt: - Verschiedene Dimensionen der Nachhaltigkeit - Das Gemeinsame der verschiedenen Dimensionen - Das Streben nach einem besseren Verständnis der Welt - Nachhaltigkeit - Ein allgemeines Modell der Nachhaltigkeit: Das »Existenzraum-Modell« - Das Metasystem Erde - Die Zukunftsfähigkeit der Gesellschaft
Räuber und Gendarm
(2012)
We present the new multi-threaded version of the state-of-the-art answer set solver clasp. We detail its component and communication architecture and illustrate how they support the principal functionalities of clasp. Also, we provide some insights into the data representation used for different constraint types handled by clasp. All this is accompanied by an extensive experimental analysis of the major features related to multi-threading in clasp.
Wallfahrten und Pilgerreisen, allgemein der religiös motivierte Tourismus erfreut sich in Europa heute aus unterschiedlichen Motiven wachsender Zustimmung. Die Motivation hierzu wurzelt letztendlich im Bereich der religiösen Emotionalität. Untersucht wird diese Form spiritueller Orientierung in der religiösen Gegenwartskultur auch in seiner Auswirkung auf die religiösen Institutionen. Die Möglichkeit zu religiös motiviertem Reisen kommt dem Bedürfnis nach mehr Religiosität entgegen, ohne daß der Pilgertourist gezwungen ist, sich längerfristig an kirchliche Strukturen binden zu müssen. Der christliche Religionstourismus ist ein bedeutender Globalisierungsfaktor und zahlenmäßig die größte Mobilisierung von Religion.
Assuming that liquid iron alloy from the outer core interacts with the solid silicate-rich lower mantle the influence on the core-mantle reflected phase PcP is studied. If the core-mantle boundary is not a sharp discontinuity, this becomes apparent in the waveform and amplitude of PcP. Iron-silicate mixing would lead to regions of partial melting with higher density which in turn reduces the velocity of seismic waves. On the basis of the calculation and interpretation of short-period synthetic seismograms, using the reflectivity and Gauss Beam method, a model space is evaluated for these ultra-low velocity zones (ULVZs). The aim of this thesis is to analyse the behaviour of PcP between 10° and 40° source distance for such models using different velocity and density configurations. Furthermore, the resolution limits of seismic data are discussed. The influence of the assumed layer thickness, dominant source frequency and ULVZ topography are analysed. The Gräfenberg and NORSAR arrays are then used to investigate PcP from deep earthquakes and nuclear explosions. The seismic resolution of an ULVZ is limited both for velocity and density contrasts and layer thicknesses. Even a very thin global core-mantle transition zone (CMTZ), rather than a discrete boundary and also with strong impedance contrasts, seems possible: If no precursor is observable but the PcP_model /PcP_smooth amplitude reduction amounts to more than 10%, a very thin ULVZ of 5 km with a first-order discontinuity may exist. Otherwise, if amplitude reductions of less than 10% are obtained, this could indicate either a moderate, thin ULVZ or a gradient mantle-side CMTZ. Synthetic computations reveal notable amplitude variations as function of the distance and the impedance contrasts. Thereby a primary density effect in the very steep-angle range and a pronounced velocity dependency in the wide-angle region can be predicted. In view of the modelled findings, there is evidence for a 10 to 13.5 km thick ULVZ 600 km south-eastern of Moscow with a NW-SE extension of about 450 km. Here a single specific assumption about the velocity and density anomaly is not possible. This is in agreement with the synthetic results in which several models create similar amplitude-waveform characteristics. For example, a ULVZ model with contrasts of -5% VP , -15% VS and +5% density explain the measured PcP amplitudes. Moreover, below SW Finland and NNW of the Caspian Sea a CMB topography can be assumed. The amplitude measurements indicate a wavelength of 200 km and a height of 1 km topography, previously also shown in the study by Kampfmann and Müller (1989). Better constraints might be provided by a joined analysis of seismological data, mineralogical experiments and geodynamic modelling.
The project of public-reason liberalism faces a basic problem: publicly justified principles are typically too abstract and vague to be directly applied to practical political disputes, whereas applicable specifications of these principles are not uniquely publicly justified. One solution could be a legislative procedure that selects one member from the eligible set of inconclusively justified proposals. Yet if liberal principles are too vague to select sufficiently specific legislative proposals, can they, nevertheless, select specific legislative procedures? Based on the work of Gerald Gaus, this article argues that the only candidate for a conclusively justified decision procedure is a majoritarian or otherwise ‘neutral’ democracy. If the justification of democracy requires an equality baseline in the design of political regimes and if justifications for departure from this baseline are subject to reasonable disagreement, a majoritarian design is justified by default. Gaus’s own preference for super-majoritarian procedures is based on disputable specifications of justified liberal principles. These procedures can only be defended as a sectarian preference if the equality baseline is rejected, but then it is not clear how the set of justifiable political regimes can be restricted to full democracies.
Der Autor diskutiert die Chancen und Risiken bei der Einbindung
des Südens in die internationale Klimapolitik. Lange Zeit hatten die
Entwicklungsländer am wenigsten zum Klimawandel beigetragen,
wären aber am stärksten von ihm betroffen. Mittlerweile jedoch tragen
diese Länder in erheblichem Maße selbst zum Klimawandel bei. Allerdings
setzen deren Regierungen auf Zeit. Sie erwarten Ressourcentransfers.
Dies verstärkt auch alte Probleme des ‚Rent-Seeking‘.
Neben der Frage nach der leistungssteigernden Wirkung von sogenannten "Ich-kann"-Checklisten auf die Metakognitionsstrategien der Schülerinnen und Schüler, geht die Arbeit auch den Fragen nach, welche Schülerinnen und Schüler "Ich-kann"-Checklisten nutzen, in welcher Form und unter welchen Kontextmerkmalen sie am wirksamsten sind. Dabei handelt es sich um Listen mit festgelegten, fachlichen und überfachlichen Kompetenzen einer bzw. mehrerer Unterrichtseinheiten, die in Form von „Ich-kann“-Formulierungen für Schüler geschrieben sind und die Aufforderung einer Selbst- und Fremdeinschätzung beinhalten. Blickt man in die Veröffentlichungen der letzten Jahre zu diesem Thema und in die schulische Praxis, so ist eine deutliche Hinwendung zur Entwicklung und Arbeit mit „Ich-kann“-Checklisten und Kompetenzrastern zu erkennen. Umso erstaunlicher ist es, dass diesbezüglich so gut wie keine empirischen Untersuchungen vorliegen (vgl. Bastian & Merziger, 2007; Merziger, 2007). Basierend auf einer quantitativen Erhebung von 197 Gymnasialschülerinnen und -schülern in der 7. Jahrgangsstufe im Fach Deutsch wurde über einen Zeitraum von zwei Jahren diesen übergeordneten Fragen nachgegangen. Die Ergebnisse lassen die Aussagen zu, dass "Ich-kann"-Checklisten insbesondere für Jungen ein wirksames pädagogisches Instrument der Selbstregulation darstellen. So fördert die Arbeit mit "Ich-kann"-Checklisten nicht nur die Steuerung eigener Lernprozesse, sondern auch die Anstrengungsbereitschaft der Schülerinnen und Schüler, mehr für das Fach tun zu wollen. Eine während der Intervention erfolgte Selbsteinschätzung über den Leistungsstand mittels der "Ich-kann"-Checklisten fördert dabei den freiwilligen außerunterrichtlichen Gebrauch.
„Alle Kinder müssen zu wertvollen Menschen erzogen werden“, forderte Margot Honecker, Erziehungsminister der DDR von 1963 bis 1989. Während liberale Jugendsoziologen die Jugendphase als Moratorium begreifen und damit Heranwachsenden Freiräume zubilligen, geltende soziale Normen infrage zu stellen und selbstbestimmte Lebensentwürfe zu erproben, ohne ihr Handeln in gleicher Weise verantworten zu müssen wie Erwachsene, wurden Jugendliche in der DDR danach beurteilt, inwieweit sie dem Ideal der „allseitig gebildeten sozialistischen Persönlichkeit“ entsprachen. Nach Honeckers Ansicht wäre die freie Entfaltung des Individuums erst im Kommunismus möglich. Individuelle Entfaltung besaß für sie keinen eigenen Wert. Der politische Erziehungsanspruch erstreckte sich grundsätzlich auf alle Lebenswelten von Jugendlichen. Freiräume zur Selbstentfaltung waren in der DDR sowohl materiell als auch ideell eng umgrenzt, ein Umstand den der bundesdeutsche Bildungssoziologe Jürgen Zinnecker als „Jugendmoratorium in kasernierter Form“ bezeichnete. Dem politischen Anpassungsdruck waren Kinder und Jugendliche in besonders starkem Maße ausgesetzt. Zwar richtete sich der Erziehungsanspruch der SED grundsätzlich auf alle Bürger, doch anders als Erwachsene hatten Kinder und Jugendliche noch keine eigenständige Stellung innerhalb des sozialen und gesellschaftlichen Gefüges gefunden und deshalb weniger Möglichkeiten, sich der politischen Einwirkung zu entziehen. Mit dem Jugendgesetz von 1974 wurde die sozialistische Persönlichkeit als Erziehungsziel festgelegt, dem auch die Eltern zu folgen hatten. Bildungschancen wurden schon frühzeitig von der Anpassung an vorgegebene Normen abhängig gemacht, abweichendes Verhalten konnte rigide bestraft werden und gravierende Folgen für den weiteren Lebensweg haben. Auch wenn die meisten Jugendlichen die Forderungen des Staates zu erfüllen schienen und ihre Verbundenheit mit der Politik der SED wann immer gefordert bezeugten, standen sie dieser Politik tatsächlich mindestens gleichgültig gegenüber. Der „Widerspruch zwischen Wort und Tat“ war eines der gravierenden Probleme der Herrschenden im Umgang mit Heranwachsenden. Es gab aber auch Jugendliche, die bewusst Einschränkungen in Kauf nahmen, um ihre Vorstellungen eines selbstbestimmten Lebens verwirklichen zu können. Schon bei geringfügiger Abweichung von ausdrücklichen oder unausgesprochenen Vorgaben mussten sie mit erheblichen staatlichen Eingriffen in ihr persönliches Dasein rechnen. Die äußerste Form der Abweichung waren Ausreiseersuchen und Fluchtversuche. Jugendliche waren unter Antragstellern und „Republikflüchtigen“ überproportional vertreten. Die Dissertation beleuchtet das Spannungsverhältnis zwischen staatlich vorgegebenen Lebenswegen und eigen-sinniger Gestaltung verschiedener Lebensbereiche von Kindern und Jugendlichen für die Jahre der Honecker-Herrschaft zwischen 1971 bis 1989 im Bezirk Schwerin.
Die Hauptströmung der orthodoxen jüdischen Gemeinschaft in Großbritannien, die vollständig integriert ist und am britischen Leben teilnimmt, scheint in gewisser Hinsicht, als ein beispielhaftes Modell für ein modernes orthodoxes Judentums gelten zu können. Der Begriff „Minhag Anglia” kann jedoch auch verwendet werden, um die oftmals unsystematisch von statten gehende Vermischung von Jüdischkeit und Britentum zu beschreiben, die als anglo-jüdische Lebensweise charakterisiert werden kann. In diesem Beitrag wird in Erwägung gezogen, ob der allgemein unreflektierte Charakter des „Minhag Anglia” es ausschließe, dass dieser als eine Strategie des modernen orthodoxen Judentums fungiere.
In this thesis, different aspects within the research field of protein spectro- and electro-chemistry on nanostructured materials are addressed. On the one hand, this work is related to the investigation of nanostructured transparent and conductive metal oxides as platform for the immobilization of electroactive enzymes. On the other hand the second part of this work is related to the immobilization of sulfite oxidase on gold nanoparticles modified electrode. Finally direct and mediated spectroelectrochemistry protein with high structure complexity such as the xanthine dehydrogenase from Rhodobacter capsulatus and its high homologues the mouse aldehyde oxidase homolog 1. Stable immobilization and reversible electrochemistry of cytochrome c in a transparent and conductive tin-doped and tin-rich indium oxide film with a well-defined mesoporosity is reported. The transparency and good conductivity, in combination with the large surface area of these materials, allow the incorporation of a high amount of electroactive biomolecules (between 250 and 2500 pmol cm-2) and their electrochemical and spectroscopic investigation. Both, the electrochemical behavior and the immobilization of proteins are influenced by the geometric parameters of the porous material, such as the structure and pore shape, the surface chemistry, as well as the protein size and charge. UV-Vis and resonance Raman spectroscopy, in combination with direct protein voltammetry, are employed for the characterization of cytochrome c immobilized in the mesoporous indium tin oxide and reveal no perturbation of the structural integrity of the redox protein. A long term protein immobilization is reached using these unmodified mesoporous indium oxide based materials, i.e. more than two weeks even at high ionic strength. The potential of this modified material as an amperometric biosensor for the detection of superoxide anions is demonstrated. A sensitivity of about 100 A M-1 m-2, in a linear measuring range of the superoxide concentration between 0.13 and 0.67 μM, is estimated. In addition an electrochemical switchable protein-based optical device is designed with the core part composed of cytochrome c immobilized on a mesoporous indium tin oxide film. A color developing redox sensitive dye is used as switchable component of the system. The cytochrome c-catalyzed oxidation of the dye by hydrogen peroxide is spectroscopically investigated. When the dye is co-immobilized with the protein, its redox state is easily controlled by application of an electrical potential at the supporting material. This enables to electrochemical reset the system to the initial state and repetitive signal generation. The case of negative charged proteins, which does not have a good interaction with the negative charged indium oxide based films, is also explored. The modification of an indium tin oxide film with a positive charged polymer and the employment of a antimony doped tin oxide film were investigated in this work in order to overcome the repulsion induced by similar charges of the protein and electrode. Human sulfite oxidase and its separated heme-containing domain are able to direct exchange electrons with the supporting material. A study of a new approach for sulfite biosensing, based on enhanced direct electron transfer of a human sulfite oxidase immobilized on a gold nanoparticles modified electrode is reported. The spherical gold nanoparticles were prepared via a novel method by reduction of HAuCl4 with branched poly(ethyleneimine) in an ionic liquid resulting in particles of about 10 nm in hydrodynamic diameter. These nanoparticles were covalently attached to a mercaptoundecanoic acid modified Au-electrode and act as platform where human sulfite oxidase is adsorbed. An enhanced interfacial electron transfer and electrocatalysis is therefore achieved. UV-Vis and resonance Raman spectroscopy, in combination with direct protein voltammetry, were employed for the characterization of the system and reveal no perturbation of the structural integrity of the redox protein. The proposed biosensor exhibited a quick steady-state current response, within 2 s and a linear detection range between 0.5 and 5.4 μM with high sensitivity (1.85 nA μM-1). The investigated system provides remarkable advantages, since it works at low applied potential and at very high ionic strength. Therefore these properties could make the proposed system useful in the development of bioelectronic devices and its application in real samples. Finally protein with high structure complexity such as the xanthine dehydrogenase from Rhodobacter capsulatus and the mouse aldehyde oxidase homolog 1 were spectroelectrochemically studied. It could be demonstrated that different cofactors present in the protein structure, like the FAD and the molybdenum cofactor, are able to directly exchange electrons with an electrode and are displayed as a single peak in a square wave voltammogram. Protein mutants bearing a serine substituted to the cysteines, bounding to the most exposed iron sulfur cluster additionally showed direct electron transfer which can be attributable to this cluster. On the other hand a mediated spectroelectrochemical titration of the protein bound FAD cofactor was performed in presence of transparent iron and cobalt complex mediators. The results showed the formation of the stable semiquinone and the fully reduced flavin. Two formal potentials for each single electron exchange step were then determined.
Europa ohne Kompass
(2012)
Die noch nicht ausgestandene Staatsschuldenkrise seit Ende 2009 hat Europa stärker verändert, als viele wahrhaben wollen. Es stellt sich die grundsätzliche Frage des Sinns der europäischen Integration. Vor allem die Glaubwürdigkeit des europäischen politischen Führungspersonals hat gelitten. Ohne Kompass wurstelt man sich seit mehr als zwei Jahren durch. Keine "rote Linie", die nicht nach wenigen Wochen überschritten wurde, kein Masterplan, der nicht bald Makulatur geworden ist.
This document presents an axiom selection technique for classic first order theorem proving based on the relevance of axioms for the proof of a conjecture. It is based on unifiability of predicates and does not need statistical information like symbol frequency. The scope of the technique is the reduction of the set of axioms and the increase of the amount of provable conjectures in a given time. Since the technique generates a subset of the axiom set, it can be used as a preprocessor for automated theorem proving. This technical report describes the conception, implementation and evaluation of ARDE. The selection method, which is based on a breadth-first graph search by unifiability of predicates, is a weakened form of the connection calculus and uses specialised variants or unifiability to speed up the selection. The implementation of the concept is evaluated with comparison to the results of the world championship of theorem provers of the year 2012 (CASC J6). It is shown that both the theorem prover leanCoP which uses the connection calculus and E which uses equality reasoning, can benefit from the selection approach. Also, the evaluation shows that the concept is applyable for theorem proving problems with thousands of formulae and that the selection is independent from the calculus used by the theorem prover.
Im Rahmen des ersten Teils der vorliegenden Doktorarbeit konnten zwei nicht-essentielle (rps15, rpl36) und fünf essentielle (rps3, rps16, rpl22, rpl23, rpl32) im Plastom von Nicotiana tabacum kodierte Proteine des plastidären Ribosoms bezüglich ihrer Essentialität charakterisiert werden. Diese Gene wurden durch gezielte Knockout-Experimente inaktiviert und die resultierenden Effekte untersucht. Die Ergebnisse lassen einen Rückschluss auf die Lokalisation der Gene der insgesamt sieben untersuchten ribosomalen Proteine zu, die im Plastom mehrerer parasitischer, Plastiden-besitzender Spezies nicht mehr nachweisbar sind. Im Fall von rps15 könnte tatsächlich ein Verlust des Genes stattgefunden haben, im Fall der restlichen Gene ist eher mit einem Transfer in den Nukleus zu rechnen (rpl36 ausgenommen). Dies würde bedeuten, dass die Geschwindigkeit der erfolgreichen Etablierung eines Gentransfers in vielen parasitischen Spezies gegenüber grünen Pflanzen stark erhöht ist. Alle in E. coli nicht-essentiellen Proteine mit Homologen in Plastiden (rps15, rpl33, rpl36) sind auch dort, trotz ~1,5 Milliarden Jahren getrennter Evolution, nicht essentiell. Dieses Ergebnis bestätigt den schon früher festgestellten hohen Konservierungsgrad der bakteriellen und plastidären Translationsmaschinerien. Die Phänotypen der KO-Pflanzen der nicht-essentiellen Gene (rps15, rpl36) weisen auf eine interessante Rolle von S15 während der Ribosomenassemblierung hin und im Fall von L36 auf eine wichtige funktionelle Rolle im Plastiden-Ribosomen sowie auf eine Involvierung der Plastidentranslation in der Generierung eines retrograden Signals, welches die Blattform zu beeinflussen im Stande ist. Des Weiteren konnte eine Verbindung der Translationsaktivität mit der Ausbildung von Seitentrieben hergestellt werden, die vermutlich auf veränderte Auxinsynthese im Chloroplast zurückzuführen ist. Aus dem Folgeprojekt, bei dem Doppel-KO-Pflanzen nicht-essentieller ribosomaler Proteine erzeugt wurden, lässt sich auf eine relativ große Plastizität der Architektur von Plastidenribosomen schließen. Im zweiten Teil der Arbeit konnte erfolgreich ein Hochdurchsatz-Screeningsystem zur semiquantitativen Analyse von 192 verschiedenen miRNAs aus Chlamydomonas reinhardtii etabliert werden. Es gelang durch die Untersuchung von 23 verschiedenen Wachstums- und Stressbedingungen sowie Entwicklungsstadien mehrere miRNAs zu identifizieren, die eine differenzielle Expression zeigen sowie unter allen untersuchten Bedingungen konstant bleibende miRNAs nachzuweisen. Dadurch konnten mehrere vielversprechende Kandidaten-miRNAs ausgemacht werden, die nun eingehender untersucht werden können.
This study follows the debate in comparative public administration research on the role of advisory arrangements in central governments. The aim of this study is to explain the mechanisms by which these actors gain their alleged role in government decision-making. Hence, it analyses advisory arrangements that are proactively involved in executive decision-making and may compete with the permanent bureaucracy by offering policy advice to political executives. The study argues that these advisory arrangements influence government policy-making by "institutional politics", i.e. by shaping the institutional underpinnings to govern or rather the "rules of the executive game" in order to strengthen their own position or that of their clients. The theoretical argument of this study follows the neo-institutionalist turn in organization theory and defines institutional politics as gradual institutionalization processes between institutions and organizational actors. It applies a broader definition of institutions as sets of regulative, normative and cognitive pillars. Following the "power-distributional approach" such gradual institutionalization processes are influenced by structure-oriented characteristics, i.e. the nature of the objects of institutional politics, in particular the freedom of interpretation in their application, as well as the distinct constraints of the institutional context. In addition, institutional politics are influenced by agency-oriented characteristics, i.e. the ambitions of actors to act as "would-be change agents". These two explanatory dimensions result in four ideal-typical mechanisms of institutional politics: layering, displacement, drift, and conversion, which correspond to four ideal-types of would-be change agents. The study examines the ambitions of advisory arrangements in institutional politics in an exploratory manner, the relevance of the institutional context is analyzed via expectation hypotheses on the effects of four institutional context features that are regarded as relevant in the scholarly debate: (1) the party composition of governments, (2) the structuring principles in cabinet, (3) the administrative tradition, and (4) the formal politicization of the ministerial bureaucracy. The study follows a "most similar systems design" and conducts qualitative case studies on the role of advisory arrangements at the center of German and British governments, i.e. the Prime Minister’s Office and the Ministry of Finance, for a longer period (1969/1970-2005). Three time periods are scrutinized per country; the British case studies examine the role of advisory arrangements at the Cabinet Office, the Prime Minister's Office, and the Ministry of Finance under Prime Ministers Heath (1970-74), Thatcher (1979-87) and Blair (1997-2005). The German case studies study the role of advisory arrangements at the Federal Chancellery and the Federal Ministry of Finance during the Brandt government (1969-74), the Kohl government (1982-1987) and the Schröder government (1998-2005). For the empirical analysis, the results of a document analysis and the findings of 75 semi-structured expert interviews have been triangulated. The comparative analysis reveals different patterns of institutional politics. The German advisory arrangements engaged initially in displacement but turned soon towards layering and drift, i.e. after an initial displacement of the pre-existing institutional underpinnings to govern they laid increasingly new elements onto existing ones and took the non-deliberative decision to neglect the adaption of existing rules of the executive game towards changing environmental demands. The British advisory arrangements were mostly involved in displacement and conversion, despite occasional layering, i.e. they displaced the pre-existing institutional underpinnings to govern with new rules of the executive game and transformed and realigned them, sometimes also layering new elements onto pre-existing ones. The structure- and agency-oriented characteristics explain these patterns of institutional politics. First, the study shows that the institutional context limits the institutional politics in Germany and facilitates the institutional politics in the UK. Second, the freedom of interpreting the application of institutional targets is relevant and could be observed via the different ambitions of advisory arrangements across countries and over time, confirming, third, that the interests of such would-be change agents are likewise important to understand the patterns of institutional politics. The study concludes that the role of advisory arrangements in government policy-making rests not only upon their policy-related, party-political or media-advisory role for political executives, but especially upon their activities in institutional politics, resulting in distinct institutional constraints on all actors in government policy-making – including their own role in these processes.
In dieser Arbeit werden die Effekte der Synchronisation nichtlinearer, akustischer Oszillatoren am Beispiel zweier Orgelpfeifen untersucht. Aus vorhandenen, experimentellen Messdaten werden die typischen Merkmale der Synchronisation extrahiert und dargestellt. Es folgt eine detaillierte Analyse der Übergangsbereiche in das Synchronisationsplateau, der Phänomene während der Synchronisation, als auch das Austreten aus der Synchronisationsregion beider Orgelpfeifen, bei verschiedenen Kopplungsstärken. Die experimentellen Befunde werfen Fragestellungen nach der Kopplungsfunktion auf. Dazu wird die Tonentstehung in einer Orgelpfeife untersucht. Mit Hilfe von numerischen Simulationen der Tonentstehung wird der Frage nachgegangen, welche fluiddynamischen und aero-akustischen Ursachen die Tonentstehung in der Orgelpfeife hat und inwiefern sich die Mechanismen auf das Modell eines selbsterregten akustischen Oszillators abbilden lässt. Mit der Methode des Coarse Graining wird ein Modellansatz formuliert.
Especially for the last twenty years, the studies of Linguistic Landscapes (LLs) have been gaining the status as an autonomous linguistic discipline. The LL of a (mostly) geographically limited area – which consists of e.g. billboards, posters, shop signs, material for election campaigns, etc. – gives deep insights into the presence or absence of languages in that particular area. Thus, LL not only allows to conclude from the presence of a language to its dominance, but also from its absence to the oppression of minorities, above all in areas where minority languages should – demographically seen – be visible. The LLs of big cities are fruitful research areas due to the mass of linguistic data. The first part of this paper deals with the theoretical and practical research that has been conducted in LL studies so far. A summary of the theory, methodologies and different approaches is given. In the second part I apply the theoretical basis to my own case study. For this, the LLs of two shopping streets in different areas of Hong Kong were examined in 2010. It seems likely that the linguistic competence of English must be rather high in Hong Kong, due to the long-lasting influence of British culture and mentality and the official status of the language. The case study's results are based on empirical data showing the objectively visible presence of English in both examined areas, as well as on two surveys. Those were conducted both openly and anonymously. The surveys are a reinsurance measuring the level of linguistic competence of English in Hong Kong. That level was defined before by an analysis of the LL. Hence, this case study is a new approach to LL analysis which does not end with the description of its material composition (as have done most studies before), but which rather includes its creators by asking in what way people's actual linguistic competence is reflected in Hong Kong's LL.
Although all bilinguals encounter cross-language interference (CLI), some bilinguals are more susceptible to interference than others. Here, we report on language performance of late bilinguals (Russian/German) on two bilingual tasks (interview, verbal fluency), their language use and switching habits. The only between-group difference was CLI: one group consistently produced significantly more errors of CLI on both tasks than the other (thereby replicating our findings from a bilingual picture naming task). This striking group difference in language control ability can only be explained by differences in cognitive control, not in language proficiency or language mode.
Particles in Saturn’s main rings range in size from dust to even kilometer-sized objects. Their size distribution is thought to be a result of competing accretion and fragmentation processes. While growth is naturally limited in tidal environments, frequent collisions among these objects may contribute to both accretion and fragmentation. As ring particles are primarily made of water ice attractive surface forces like adhesion could significantly influence these processes, finally determining the resulting size distribution. Here, we derive analytic expressions for the specific self-energy Q and related specific break-up energy Q⋆ of aggregates. These expressions can be used for any aggregate type composed of monomeric constituents. We compare these expressions to numerical experiments where we create aggregates of various types including: regular packings like the face-centered cubic (fcc), Ballistic Particle Cluster Aggregates (BPCA), and modified BPCAs including e.g. different constituent size distributions. We show that accounting for attractive surface forces such as adhesion a simple approach is able to: a) generally account for the size dependence of the specific break-up energy for fragmentation to occur reported in the literature, namely the division into “strength” and “gravity” regimes, and b) estimate the maximum aggregate size in a collisional ensemble to be on the order of a few meters, consistent with the maximum aggregate size observed in Saturn’s rings of about 10m.
Using the eye-movement monitoring technique in two reading comprehension experiments, this study investigated the timing of constraints on wh-dependencies (so-called island constraints) in first- and second-language (L1 and L2) sentence processing. The results show that both L1 and L2 speakers of English are sensitive to extraction islands during processing, suggesting that memory storage limitations affect L1 and L2 comprehenders in essentially the same way. Furthermore, these results show that the timing of island effects in L1 compared to L2 sentence comprehension is affected differently by the type of cue (semantic fit versus filled gaps) signaling whether dependency formation is possible at a potential gap site. Even though L1 English speakers showed immediate sensitivity to filled gaps but not to lack of semantic fit, proficient German-speaking learners of English as a L2 showed the opposite sensitivity pattern. This indicates that initial wh-dependency formation in L2 processing is based on semantic feature matching rather than being structurally mediated as in L1 comprehension.
The present thesis is to be brought into line with the current need for alternative and sustainable approaches toward energy management and materials design. In this context, carbon in particular has become the material of choice in many fields such as energy conversion and storage. Herein, three main topics are covered: 1)An alternative synthesis strategy toward highly porous functional carbons with tunable porosity using ordinary salts as porogen (denoted as “salt templating”) 2)The one-pot synthesis of porous metal nitride containing functional carbon composites 3)The combination of both approaches, enabling the generation of highly porous composites with finely tunable properties All approaches have in common that they are based on the utilization of ionic liquids, salts which are liquid below 100 °C, as precursors. Just recently, ionic liquids were shown to be versatile precursors for the generation of heteroatom-doped carbons since the liquid state and a negligible vapor pressure are highly advantageous properties. However, in most cases the products do not possess any porosity which is essential for many applications. In the first part, “salt templating”, the utilization of salts as diverse and sustainable porogens, is introduced. Exemplarily shown for ionic liquid derived nitrogen- and nitrogen-boron-co-doped carbons, the control of the porosity and morphology on the nanometer scale by salt templating is presented. The studies within this thesis were conducted with the ionic liquids 1-Butyl-3-methyl-pyridinium dicyanamide (Bmp-dca), 1-Ethyl-3-methyl-imidazolium dicyanamide (Emim-dca) and 1 Ethyl 3-methyl-imidazolium tetracyanoborate (Emim-tcb). The materials are generated through thermal treatment of precursor mixtures containing one of the ionic liquids and a porogen salt. By simple removal of the non-carbonizable template salt with water, functional graphitic carbons with pore sizes ranging from micro- to mesoporous and surface areas up to 2000 m2g-1 are obtained. The carbon morphologies, which presumably originate from different onsets of demixing, mainly depend on the nature of the porogen salt whereas the nature of the ionic liquid plays a minor role. Thus, a structural effect of the porogen salt rather than activation can be assumed. This offers an alternative to conventional activation and templating methods, enabling to avoid multiple-step and energy-consuming synthesis pathways as well as employment of hazardous chemicals for the template removal. The composition of the carbons can be altered via the heat-treatment procedure, thus at lower synthesis temperatures rather polymeric carbonaceous materials with a high degree of functional groups and high surface areas are accessible. First results suggest the suitability of the materials for CO2 utilization. In order to further illustrate the potential of ionic liquids as carbon precursors and to expand the class of carbons which can be obtained, the ionic liquid 1-Ethyl-3-methyl-imidazolium thiocyanate (Emim-scn) is introduced for the generation of nitrogen-sulfur-co-doped carbons in combination with the already studied ionic liquids Bmp-dca and Emim-dca. Here, the salt templating approach should also be applicable eventually further illustrating the potential of salt templating, too. In the second part, a one-pot and template-free synthesis approach toward inherently porous metal nitride nanoparticle containing nitrogen-doped carbon composites is presented. Since ionic liquids also offer outstanding solubility properties, the materials can be generated through the carbonization of homogeneous solutions of an ionic liquid acting as nitrogen as well as carbon source and the respective metal precursor. The metal content and surface area are easily tunable via the initial metal precursor amount. Furthermore, it is also possible to synthesize composites with ternary nitride nanoparticles whose composition is adjustable by the metal ratio in the precursor solution. Finally, both approaches are combined into salt templating of the one-pot composites. This opens the way to the one-step synthesis of composites with tunable composition, particle size as well as precisely controllable porosity and morphology. Thereby, common synthesis strategies where the product composition is often negatively affected by the template removal procedure can be avoided. The composites are further shown to be suitable as electrodes for supercapacitors. Here, different properties such as porosity, metal content and particle size are investigated and discussed with respect to their influence on the energy storage performance. Because a variety of ionic liquids, metal precursors and salts can be combined and a simple closed-loop process including salt recycling is imaginable, the approaches present a promising platform toward sustainable materials design.
The need to reduce humankind reliance on fossil fuels by exploiting sustainably the planet renewable resources is a major driving force determining the focus of modern material research. For this reason great interest is nowadays focused on finding alternatives to fossil fuels derived products/materials. For the short term the most promising substitute is undoubtedly biomass, since it is the only renewable and sustainable alternative to fossil fuels as carbon source. As a consequence efforts, aimed at finding new synthetic approaches to convert biomass and its derivatives into carbon-based materials, are constantly increasing. In this regard, hydrothermal carbonisation (HTC) has shown to be an effective means of conversion of biomass-derived precursors into functional carbon materials. However the attempts to convert raw biomass, in particular lignocellulosic one, directly into such products have certainly been rarer. Unlocking the direct use of these raw materials as carbon precursors would definitely be beneficial in terms of HTC sustainability. For this reason, in this thesis the HTC of carbohydrate and protein-rich biomass was systematically investigated, in order to obtain more insights on the potentials of this thermochemical processing technique in relation to the production of functional carbon materials from crude biomass. First a detailed investigation on the HTC conversion mechanism of lignocellulosic biomass and its single components (i.e. cellulose, lignin) was developed based on a comparison with glucose HTC, which was adopted as a reference model. In the glucose case it was demonstrated that varying the HTC temperature allowed tuning the chemical structure of the synthesised carbon materials from a highly cross-linked furan-based structure (T = 180oC) to a carbon framework composed of polyaromatic arene-like domains. When cellulose or lignocellulosic biomass was used as carbon precursor, the furan rich structure could not be isolated at any of the investigated processing conditions. These evidences were indicative of a different HTC conversion mechanism for cellulose, involving reactions that are commonly observed during pyrolytic processes. The evolution of glucose-derived HTC carbon chemical structure upon pyrolysis was also investigated. These studies revealed that upon heat treatment (Investigated temperatures 350 – 900 oC) the furan-based structure was progressively converted into highly curved aromatic pre-graphenic domains. This thermal degradation process was observed to produce an increasingly more hydrophobic surface and considerable microporosity within the HTC carbon structure. In order to introduce porosity in the HTC carbons derived from lignocellulosic biomass, KOH chemical activation was investigated as an HTC post-synthesis functionalisation step. These studies demonstrated that HTC carbons are excellent precursors for the production of highly microporous activated carbons (ACs) and that the porosity development upon KOH chemical activation is dependent on the chemical structure of the HTC carbon, tuned by employing different HTC temperatures. Preliminary testing of the ACs for CO2 capture or high pressure CH4 storage yielded very promising results, since the measured uptakes of both adsorbates (i.e. CO2 and CH4) were comparable to top-performing and commercially available adsorbents, usually employed for these end-applications. The combined use of HTC and KOH chemical activation was also employed to produce highly microporous N-doped ACs from microalgae. The hydrothermal treatment of the microalgae substrate was observed to cause the depletion of the protein and carbohydrate fractions and the near complete loss (i.e. 90%) of the microalgae N-content, as liquid hydrolysis/degradation products. The obtained carbonaceous product showed a predominantly aliphatic character indicating the presence of alkyl chains presumably derived from the lipid fractions. Addition of glucose to the initial reaction mixture was found out to be extremely beneficial, because it allowed the fixation of a higher N amount, in the algae derived HTC carbons (i.e. 60%), and the attainment of higher product yields (50%). Both positive effects were attributed to Maillard type cascade reactions taking place between the monosaccharides and the microalgae derived liquid hydrolysis/degradation products, which were in this way recovered from the liquid phase. KOH chemical activation of the microalgae/glucose mixture derived HTC carbons produced highly microporous N-doped carbons. Although the activation process led to a major reduction of the N-content, the retained N-amount in the ACs was still considerable. These features render these materials ideal candidates for supercapacitors electrodes, since they provide extremely high surface areas, for the formation of electric double-layer, coupled to abundant heteroatom doping (i.e. N and O) necessary to obtain a pseudocapacitance contribution.
Mit dem in §18 des Tarifvertrags für den öffentlichen Dienst (TVöD) festgeschriebenen Leistungsentgelt soll u.a. die Motivation der Mitarbeiterinnen und Mitarbeiter im öffentlichen Dienst gesteigert werden. Eine motivationssteigernde Wirkung wird jedoch von Seiten der Motivationsforschung bestritten. Sie geht im Gegenteil davon aus, dass eine leistungsorientierte Bezahlung (LOB) zu einer Verdrängung der intrinsischen Motivation (Crowding-Out Effekt) führen kann. Mithilfe eines empirischen Tests der Motivation Crowding Theorie gelangt diese Arbeit zu einem differenzierteren Urteil. Es wird gezeigt, dass im Beispiel der Kreisverwaltung Potsdam Mittelmark die subjektive Wahrnehmung der LOB durch den einzelnen Beschäftigten darüber entscheidet, ob dessen Motivation verstärkt oder verdrängt wird. Jene Beschäftigten, die sich durch die LOB kontrolliert fühlen, weisen eine signifikant geringere PSM und intrinsische Motivation als diejenigen auf, die die LOB als fördernd wahrnehmen. Als zentraler Faktor für das Urteil der Beschäftigten wird die wahrgenommene Fairness des Systems identifiziert.
Wie stark sich im Verlauf des zurückliegenden Vierteljahrhunderts der Bekanntheitsgrad Alexander von Humboldts in der deutschsprachigen Öffentlichkeit verändert hat, zeigen nicht nur Fernsehumfragen zu den berühmtesten Deutschen, in denen Alexander von Humboldt mittlerweile figuriert, oder Fernsehserien, die über aktuelle Expeditionen berichten und auf Humboldts Namen zurückgreifen. Am deutlichsten vielleicht belegt dies der enorme Erfolg von Daniel Kehlmanns Roman Die Vermessung der Welt, der ohne die zuvor skizzierte Entwicklung nicht denkbar gewesen wäre. Es ist vor diesem Hintergrund nicht nur reizvoll, sondern aufschlußreich, sich mit dem großen Erfolg dieses kleinen Romans zu beschäftigen. Worum geht es in Die Vermessung der Welt? Und wie läßt sich das »Phänomen Kehlmann« aus etwas größerer Distanz erklären?
De cómicos e histéricos
(2012)
La popularidad de Alejandro de Humboldt ha cambiado profundamente dentro del último cuarto de siglo en la opinión pública de habla alemana. Prueba de esto son no sólo las encuestas televisivas sobre los alemanes más famosos, dentro de las cuales figura en estos momentos Alejandro de Humboldt, o programas de televisión sobre expediciones actuales, en los que continuamente se retoma el nombre de Humboldt; quizás la comprobación más clara de este cambio es el éxito enorme de la novela Die Vermessung der Welt de Daniel Kehlmann. Éxito que sería impensable sin el proceso esbozado más arriba. Ante este trasfondo, estudiar el gran éxito de esta pequeña novela resulta no sólo atractivo, sino además revelador. ¿De qué se trata Die Vermessung der Welt? ¿Cómo se puede explicar el »fenómeno Kehlmann« desde una distancia relativamente mayor?
The microscopic origin of ultrafast demagnetization, i.e. the quenching of the magnetization of a ferromagnetic metal on a sub-picosecond timescale after laser excitation, is still only incompletely understood, despite a large body of experimental and theoretical work performed since the discovery of the effect more than 15 years ago. Time- and element-resolved x-ray magnetic circular dichroism measurements can provide insight into the microscopic processes behind ultrafast demagnetization as well as its dependence on materials properties. Using the BESSY II Femtoslicing facility, a storage ring based source of 100 fs short soft x-ray pulses, ultrafast magnetization dynamics of ferromagnetic NiFe and GdTb alloys as well as a Au/Ni layered structure were investigated in laser pump – x-ray probe experiments. After laser excitation, the constituents of Ni50Fe50 and Ni80Fe20 exhibit distinctly different time constants of demagnetization, leading to decoupled dynamics, despite the strong exchange interaction that couples the Ni and Fe sublattices under equilibrium conditions. Furthermore, the time constants of demagnetization for Ni and Fe are different in Ni50Fe50 and Ni80Fe20, and also different from the values for the respective pure elements. These variations are explained by taking the magnetic moments of the Ni and Fe sublattices, which are changed from the pure element values due to alloying, as well as the strength of the intersublattice exchange interaction into account. GdTb exhibits demagnetization in two steps, typical for rare earths. The time constant of the second, slower magnetization decay was previously linked to the strength of spin-lattice coupling in pure Gd and Tb, with the stronger, direct spin-lattice coupling in Tb leading to a faster demagnetization. In GdTb, the demagnetization of Gd follows Tb on all timescales. This is due to the opening of an additional channel for the dissipation of spin angular momentum to the lattice, since Gd magnetic moments in the alloy are coupled via indirect exchange interaction to neighboring Tb magnetic moments, which are in turn strongly coupled to the lattice. Time-resolved measurements of the ultrafast demagnetization of a Ni layer buried under a Au cap layer, thick enough to absorb nearly all of the incident pump laser light, showed a somewhat slower but still sub-picosecond demagnetization of the buried Ni layer in Au/Ni compared to a Ni reference sample. Supported by simulations, I conclude that demagnetization can thus be induced by transport of hot electrons excited in the Au layer into the Ni layer, without the need for direct interaction between photons and spins.
Recht auf Demokratie
(2012)
Inhalt: I. Problemstellung II. Demokratieprinzip im Völkerrecht III. Selbstbestimmungsrecht der Völker IV. Enthält das Recht auf „Selfdetermination“ ein Recht auf „Selfgovernment“? V. Umfang und Inhalt des Rechts auf Demokratie der Bürger und Völker VI. Durchsetzbarkeit der Rechte auf Demokratie VII. Ergebnisse
Vor 50 Jahren löste sich Algerien nach langem Kampf endgültig aus dem französischen Kolonialreich. Die anschließend durchgeführten Wirtschaftsreformen konnten das Land aber nicht befrieden, weil sie keine effektive Nutzung der Rente verwirklichten. Bis heute ist die Wirtschaft des Landes wenig diversifiziert und stark von Erdöleinnahmen abhängig. Ist eine exportorientierte Industrialisierung als Lösung der Probleme denkbar?
Prognosen
(2012)
Flux-P
(2012)
Quantitative knowledge of intracellular fluxes in metabolic networks is invaluable for inferring metabolic system behavior and the design principles of biological systems. However, intracellular reaction rates can not often be calculated directly but have to be estimated; for instance, via 13C-based metabolic flux analysis, a model-based interpretation of stable carbon isotope patterns in intermediates of metabolism. Existing software such as FiatFlux, OpenFLUX or 13CFLUX supports experts in this complex analysis, but requires several steps that have to be carried out manually, hence restricting the use of this software for data interpretation to a rather small number of experiments. In this paper, we present Flux-P as an approach to automate and standardize 13C-based metabolic flux analysis, using the Bio-jETI workflow framework. Exemplarily based on the FiatFlux software, it demonstrates how services can be created that carry out the different analysis steps autonomously and how these can subsequently be assembled into software workflows that perform automated, high-throughput intracellular flux analysis of high quality and reproducibility. Besides significant acceleration and standardization of the data analysis, the agile workflow-based realization supports flexible changes of the analysis workflows on the user level, making it easy to perform custom analyses.
In der aktuellen Performance-Management-Forschung wurden bereits eine Vielzahl von Einflussfaktoren untersucht, die eine zielgerichtete Verwendung von Kennzahlen beeinflussen. Verwaltungskultur spielte hierbei nur eine nachgeordnete Rolle. Die vorliegende Untersuchung verwendet die Daten einer Umfrage in allen kreisfreien Städten Deutschlands, um den Zusammenhang zwischen verschiedenen Kulturtypen und der Verwendung von Kennzahlen zu untersuchen. Als Analyseschema für Verwaltungskultur wird die Grid/Group-Analysis verwendet. Die Ergebnisse sind zum Teil überraschend. Individualistische Kulturen scheinen einen negativen, hierarchistische Kulturen einen positiven Einfluss zu haben. Dennoch wird das Fehlen eines geeigneten Operationalisierungsschemas bemängelt.
We study the Dirichlet problem in a bounded plane domain for the heat equation with small parameter multiplying the derivative in t. The behaviour of solution at characteristic points of the boundary is of special interest. The behaviour is well understood if a characteristic line is tangent to the boundary with contact degree at least 2. We allow the boundary to not only have contact of degree less than 2 with a characteristic line but also a cuspidal singularity at a characteristic point. We construct an asymptotic solution of the problem near the characteristic point to describe how the boundary layer degenerates.
Duplicate detection is the task of identifying all groups of records within a data set that represent the same real-world entity, respectively. This task is difficult, because (i) representations might differ slightly, so some similarity measure must be defined to compare pairs of records and (ii) data sets might have a high volume making a pair-wise comparison of all records infeasible. To tackle the second problem, many algorithms have been suggested that partition the data set and compare all record pairs only within each partition. One well-known such approach is the Sorted Neighborhood Method (SNM), which sorts the data according to some key and then advances a window over the data comparing only records that appear within the same window. We propose several variations of SNM that have in common a varying window size and advancement. The general intuition of such adaptive windows is that there might be regions of high similarity suggesting a larger window size and regions of lower similarity suggesting a smaller window size. We propose and thoroughly evaluate several adaption strategies, some of which are provably better than the original SNM in terms of efficiency (same results with fewer comparisons).
Die vorliegende Arbeit enthält eine statistische Analyse der Gesamtheit öffentlicher Unternehmen in Deutschland und ihrer wirtschaftlichen Lage. Für diese Untersuchung stand eine Datenbank für etwa 9000 öffentliche Unternehmen mit knapp 500 Merkmalen zur Verfügung, die im Wesentlichen den Posten der Jahresabschlüsse und verschiedenen Identifikationsmerkmalen (wie u. a. Unternehmenssitz, Wirtschaftszweig und Rechtsform) entsprechen. Die Analyse umfasst den Zeitraum von 1998 bis 2006. Die extrem umfangreiche Datengrundlage – Jahresabschlussstatistiken öffentlicher Unternehmen – ist für einen Statistiker eine große Versuchung. In der Arbeit wurden Methoden der beschreibenden Statistik und der Jahresabschlussanalyse mit Bilanzkennzahlen angewandt. Vor allem in den letzten zwanzig Jahren wurde die Entwicklung der Gesamtheit öffentlicher Unternehmen durch Wandelprozesse geprägt und von Diskussionen über ihre Leistungsfähigkeit begleitet. Die Dynamik der Gesamtheit öffentlicher Unternehmen zeigt sich v. a. an der Vielfalt ihrer Aufgabenbereiche und Organisationsformen. Daher wurde in dieser Arbeit versucht, zunächst eine Bestandsaufnahme des öffentlichen Unternehmensbereichs durchzuführen. Ein weiteres Ziel war die Beschreibung der Wirtschaftslage öffentlicher Unternehmen im letzten Jahrzehnt, wobei ihre Leistungsfähigkeit in den Vordergrund gestellt wird. Die Leistungsfähigkeit öffentlicher Unternehmen nur über die betriebswirtschaftliche Effizienz zu messen, ist gewiss einseitig und nicht ausreichend. Diese ließ sich aber im Vergleich zur volkswirtschaftlichen oder sozialen Effizienz leichter operationalisieren: Die betriebswirtschaftlichen Effizienzkriterien können gut aus den Jahresabschlüssen abgeleitet werden. Dadurch wird auch ein Vergleich mit privaten Unternehmen in gewissen Grenzen möglich. Die Beschreibung der Wirtschaftslage öffentlicher Unternehmen wurde als Analyse ihrer einzelnen Teillagen (Vermögens-, Finanz- und Ertragslage) strukturiert. Insgesamt unterstreicht die Analyse der Teillagen die enge Verflechtung zwischen öffentlichen Unternehmen und öffentlichen Haushalten. Die vorliegende Untersuchung soll die Forschung auf dem Gebiet der datengetriebenen Statistik, die im Universitätsbereich in letzten Jahren im Vergleich zur modellgetriebenen Statistik oft vernachlässigt wurde, ausweiten.
Much of our knowledge about the solar dynamo is based on sunspot observations. It is thus desirable to extend the set of positional and morphological data of sunspots into the past. Gustav Spörer observed in Germany from Anklam (1861–1873) and Potsdam (1874–1894). He left detailed prints of sunspot groups, which we digitized and processed to mitigate artifacts left in the print by the passage of time. After careful geometrical correction, the sunspot data are now available as synoptic charts for almost 450 solar rotation periods. Individual sunspot positions can thus be precisely determined and spot areas can be accurately measured using morphological image processing techniques. These methods also allow us to determine tilt angles of active regions (Joy’s law) and to assess the complexity of an active region.
In diesem Buch geht es um ein Phänomen, das als konstantes Element in der Geschichte des Christentums bezeichnet werden kann: Neuoffenbarungen. Denn der Kanonisierung der Bibel und dem kritischen Blick der kirchlichen Orthodoxie zum Trotz gab und gibt es immer wieder Menschen, die behaupten, dass sich ihnen Gottvater, Christus, der Heilige Geist oder andere Wesenheiten (Maria, Engel, Verstorbene) offenbart haben. Religionswissenschaftler haben das Thema bislang weitgehend ignoriert. Sie haben den Bereich des Christentums den Theologen überlassen und sich allenfalls mit frei flottierender Esoterik befasst. Theologen neigen ihrerseits dazu, Neuoffenbarungen apologetisch zu bekämpfen. Die vorliegende Untersuchung leistet daher einen wichtigen Beitrag zur religionswissenschaftlichen Erforschung des Themas. Im ersten Teil des Buches wird der Begriff „Neuoffenbarung“ aus verschiedenen religionswissenschaftlichen Perspektiven betrachtet. Zunächst wird untersucht, was die christliche Theologie unter „Offenbarung“ versteht. Danach werden die verschiedenen Termini analysiert, die für das Feld der außer- und nachbiblischen Offenbarungen kursieren (Neuoffenbarung, Privatoffenbarung, Channeling, Spiritismus, Prophetie u. v. m.). Anschließend werden jene Argumente referiert, die von Neuoffenbarungsanhängern bzw. kirchlichen Apologeten ins Feld geführt werden, um die Legitimität von Neuoffenbarungen zu behaupten bzw. zu bestreiten. Dass Neuoffenbarungen gar nicht so neu sind, zeigt ein religionshistorischer Überblick. Denn der Anspruch, besondere Offenbarungen empfangen zu haben, lässt sich in jeder Epoche des Christentums nachweisen. Nachdem einige Exponenten des prophetischen Charismas als ideengeschichtliche Vorläufer und Geistesverwandte der modernen Neuoffenbarungen vorgestellt wurden, werden diese schließlich selbst in den Fokus genommen. Das disparate Feld der Neuoffenbarungsträger des 19. und 20. Jahrhunderts wird anhand exemplarischer Gestalten in einer Typologie geordnet dargestellt. Um den Zitationszirkel zu durchbrechen, der sich offensichtlich im Diskurs etabliert hat, werden darin auch bislang weniger bekannte Neuoffenbarer vorgestellt. In einer Art Tiefenbohrung werden diese religionsphilosophischen, semantischen, historischen und systematischen Zugänge im zweiten Teil an der mexikanischen Neuoffenbarung „Das Buch des Wahren Lebens“ exemplifiziert. Die analysierende Darstellung beschränkt sich jedoch nicht auf ein isoliertes Objekt, sondern dies wird in einen komparatistischen Kontext gestellt: Zentrale Topoi des „Buches des Wahren Lebens“ (Christologie, Reinkarnationslehre, Kirchenkritik u. v. m.) werden zum einen in einer Synopse mit anderen Neuoffenbarungen dargestellt und zum anderen an der orthodoxen Theologie gespiegelt. Damit wird eine doppelte Differenz gezeigt: die Nähe/Ferne zu ähnlichen Phänomenen und die Nähe/Ferne zum kirchlichen Christentum.
A discrete analogue of the Witten Laplacian on the n-dimensional integer lattice is considered. After rescaling of the operator and the lattice size we analyze the tunnel effect between different wells, providing sharp asymptotics of the low-lying spectrum. Our proof, inspired by work of B. Helffer, M. Klein and F. Nier in continuous setting, is based on the construction of a discrete Witten complex and a semiclassical analysis of the corresponding discrete Witten Laplacian on 1-forms. The result can be reformulated in terms of metastable Markov processes on the lattice.
Theory of mRNA degradation
(2012)
One of the central themes of biology is to understand how individual cells achieve a high fidelity in gene expression. Each cell needs to ensure accurate protein levels for its proper functioning and its capability to proliferate. Therefore, complex regulatory mechanisms have evolved in order to render the expression of each gene dependent on the expression level of (all) other genes. Regulation can occur at different stages within the framework of the central dogma of molecular biology. One very effective and relatively direct mechanism concerns the regulation of the stability of mRNAs. All organisms have evolved diverse and powerful mechanisms to achieve this. In order to better comprehend the regulation in living cells, biochemists have studied specific degradation mechanisms in detail. In addition to that, modern high-throughput techniques allow to obtain quantitative data on a global scale by parallel analysis of the decay patterns of many different mRNAs from different genes. In previous studies, the interpretation of these mRNA decay experiments relied on a simple theoretical description based on an exponential decay. However, this does not account for the complexity of the responsible mechanisms and, as a consequence, the exponential decay is often not in agreement with the experimental decay patterns. We have developed an improved and more general theory of mRNA degradation which provides a general framework of mRNA expression and allows describing specific degradation mechanisms. We have made an attempt to provide detailed models for the regulation in different organisms. In the yeast S. cerevisiae, different degradation pathways are known to compete and furthermore most of them rely on the biochemical modification of mRNA molecules. In bacteria such as E. coli, degradation proceeds primarily endonucleolytically, i.e. it is governed by the initial cleavage within the coding region. In addition, it is often coupled to the level of maturity and the size of the polysome of an mRNA. Both for S. cerevisiae and E. coli, our descriptions lead to a considerable improvement of the interpretation of experimental data. The general outcome is that the degradation of mRNA must be described by an age-dependent degradation rate, which can be interpreted as a consequence of molecular aging of mRNAs. Within our theory, we find adequate ways to address this much debated topic from a theoretical perspective. The improvements of the understanding of mRNA degradation can be readily applied to further comprehend the mRNA expression under different internal or environmental conditions such as after the induction of transcription or stress application. Also, the role of mRNA decay can be assessed in the context of translation and protein synthesis. The ultimate goal in understanding gene regulation mediated by mRNA stability will be to identify the relevance and biological function of different mechanisms. Once more quantitative data will become available, our description allows to elaborate the role of each mechanism by devising a suitable model.
This study provides a detailed analysis of the mid-Holocene to present-day precipitation change in the Asian monsoon region. We compare for the first time results of high resolution climate model simulations with a standardised set of mid-Holocene moisture reconstructions. Changes in the simulated summer monsoon characteristics (onset, withdrawal, length and associated rainfall) and the mechanisms causing the Holocene precipitation changes are investigated. According to the model, most parts of the Indian subcontinent received more precipitation (up to 5 mm/day) at mid-Holocene than at present-day. This is related to a stronger Indian summer monsoon accompanied by an intensified vertically integrated moisture flux convergence. The East Asian monsoon region exhibits local inhomogeneities in the simulated annual precipitation signal. The sign of this signal depends on the balance of decreased pre-monsoon and increased monsoon precipitation at mid-Holocene compared to present-day. Hence, rainfall changes in the East Asian monsoon domain are not solely associated with modifications in the summer monsoon circulation but also depend on changes in the mid-latitudinal westerly wind system that dominates the circulation during the pre-monsoon season. The proxy-based climate reconstructions confirm the regional dissimilarities in the annual precipitation signal and agree well with the model results. Our results highlight the importance of including the pre-monsoon season in climate studies of the Asian monsoon system and point out the complex response of this system to the Holocene insolation forcing. The comparison with a coarse climate model simulation reveals that this complex response can only be resolved in high resolution simulations.
Climate is the principal driving force of hydrological extremes like floods and attributing generating mechanisms is an essential prerequisite for understanding past, present, and future flood variability. Successively enhanced radiative forcing under global warming enhances atmospheric water-holding capacity and is expected to increase the likelihood of strong floods. In addition, natural climate variability affects the frequency and magnitude of these events on annual to millennial time-scales. Particularly in the mid-latitudes of the Northern Hemisphere, correlations between meteorological variables and hydrological indices suggest significant effects of changing climate boundary conditions on floods. To date, however, understanding of flood responses to changing climate boundary conditions is limited due to the scarcity of hydrological data in space and time. Exploring paleoclimate archives like annually laminated (varved) lake sediments allows to fill this gap in knowledge offering precise dated time-series of flood variability for millennia. During river floods, detrital catchment material is eroded and transported in suspension by fluid turbulence into downstream lakes. In the water body the transport capacity of the inflowing turbidity current successively diminishes leading to the deposition of detrital layers on the lake floor. Intercalated into annual laminations these detrital layers can be dated down to seasonal resolution. Microfacies analyses and X-ray fluorescence scanning (µ-XRF) at 200 µm resolution were conducted on the varved Mid- to Late Holocene interval of two sediment profiles from pre-alpine Lake Ammersee (southern Germany) located in a proximal (AS10prox) and distal (AS10dist) position towards the main tributary River Ammer. To shed light on sediment distribution within the lake, particular emphasis was (1) the detection of intercalated detrital layers and their micro-sedimentological features, and (2) intra-basin correlation of these deposits. Detrital layers were dated down to the season by microscopic varve counting and determination of the microstratigraphic position within a varve. The resulting chronology is verified by accelerator mass spectrometry (AMS) 14C dating of 14 terrestrial plant macrofossils. Since ~5500 varve years before present (vyr BP), in total 1573 detrital layers were detected in either one or both of the investigated sediment profiles. Based on their microfacies, geochemistry, and proximal-distal deposition pattern, detrital layers were interpreted as River Ammer flood deposits. Calibration of the flood layer record using instrumental daily River Ammer runoff data from AD 1926 to 1999 proves the flood layer succession to represent a significant time-series of major River Ammer floods in spring and summer, the flood season in the Ammersee region. Flood layer frequency trends are in agreement with decadal variations of the East Atlantic-Western Russia (EA-WR) atmospheric pattern back to 200 yr BP (end of the used atmospheric data) and solar activity back to 5500 vyr BP. Enhanced flood frequency corresponds to the negative EA-WR phase and reduced solar activity. These common links point to a central role of varying large-scale atmospheric circulation over Europe for flood frequency in the Ammersee region and suggest that these atmospheric variations, in turn, are likely modified by solar variability during the past 5500 years. Furthermore, the flood layer record indicates three shifts in mean layer thickness and frequency of different manifestation in both sediment profiles at ~5500, ~2800, and ~500 vyr BP. Combining information from both sediment profiles enabled to interpret these shifts in terms of stepwise increases in mean flood intensity. Likely triggers of these shifts are gradual reduction of Northern Hemisphere orbital summer forcing and long-term solar activity minima. Hypothesized atmospheric response to this forcing is hemispheric cooling that enhances equator-to-pole temperature gradients and potential energy in the troposphere. This energy is transferred into stronger westerly cyclones, more extreme precipitation, and intensified floods at Lake Ammersee. Interpretation of flood layer frequency and thickness data in combination with reanalysis models and time-series analysis allowed to reconstruct the flood history and to decipher flood triggering climate mechanisms in the Ammersee region throughout the past 5500 years. Flood frequency and intensity are not stationary, but influenced by multi-causal climate forcing of large-scale atmospheric modes on time-scales from years to millennia. These results challenge future projections that propose an increase in floods when Earth warms based only on the assumption of an enhanced hydrological cycle.