Refine
Year of publication
- 2014 (1681) (remove)
Document Type
- Article (1122)
- Doctoral Thesis (202)
- Postprint (102)
- Monograph/Edited Volume (55)
- Review (54)
- Preprint (47)
- Conference Proceeding (42)
- Part of a Book (19)
- Part of Periodical (14)
- Other (11)
Language
Is part of the Bibliography
- yes (1681) (remove)
Keywords
- anomalous diffusion (14)
- prevention (10)
- radiation mechanisms: non-thermal (9)
- Eye movements (8)
- Holocene (8)
- gamma rays: galaxies (8)
- living cells (8)
- Earthquake source observations (7)
- gamma rays: general (7)
- violence (7)
Institute
- Institut für Biochemie und Biologie (246)
- Institut für Physik und Astronomie (237)
- Institut für Geowissenschaften (226)
- Institut für Chemie (188)
- Department Psychologie (90)
- Wirtschaftswissenschaften (59)
- Institut für Ernährungswissenschaft (58)
- Sozialwissenschaften (55)
- Institut für Mathematik (53)
- Historisches Institut (50)
Downscaling of microfluidic cell culture and detection devices for electrochemical monitoring has mostly focused on miniaturization of the microfluidic chips which are often designed for specific applications and therefore lack functional flexibility. We present a compact microfluidic cell culture and electrochemical analysis platform with in-built fluid handling and detection, enabling complete cell based assays comprising on-line electrode cleaning, sterilization, surface functionalization, cell seeding, cultivation and electrochemical real-time monitoring of cellular dynamics. To demonstrate the versatility and multifunctionality of the platform, we explored amperometric monitoring of intracellular redox activity in yeast (Saccharomyces cerevisiae) and detection of exocytotically released dopamine from rat pheochromocytoma cells (PC12). Electrochemical impedance spectroscopy was used in both applications for monitoring cell sedimentation and adhesion as well as proliferation in the case of PC12 cells. The influence of flow rate on the signal amplitude in the detection of redox metabolism as well as the effect of mechanical stimulation on dopamine release were demonstrated using the programmable fluid handling capability. The here presented platform is aimed at applications utilizing cell based assays, ranging from e.g. monitoring of drug effects in pharmacological studies, characterization of neural stem cell differentiation, and screening of genetically modified microorganisms to environmental monitoring.
We investigate spatio-temporal properties of earthquake patterns in the San Jacinto fault zone (SJFZ), California, between Cajon Pass and the Superstition Hill Fault, using a long record of simulated seismicity constrained by available seismological and geological data. The model provides an effective realization of a large segmented strike-slip fault zone in a 3D elastic half-space, with heterogeneous distribution of static friction chosen to represent several clear step-overs at the surface. The simulated synthetic catalog reproduces well the basic statistical features of the instrumental seismicity recorded at the SJFZ area since 1981. The model also produces events larger than those included in the short instrumental record, consistent with paleo-earthquakes documented at sites along the SJFZ for the last 1,400 years. The general agreement between the synthetic and observed data allows us to address with the long-simulated seismicity questions related to large earthquakes and expected seismic hazard. The interaction between m a parts per thousand yen 7 events on different sections of the SJFZ is found to be close to random. The hazard associated with m a parts per thousand yen 7 events on the SJFZ increases significantly if the long record of simulated seismicity is taken into account. The model simulations indicate that the recent increased number of observed intermediate SJFZ earthquakes is a robust statistical feature heralding the occurrence of m a parts per thousand yen 7 earthquakes. The hypocenters of the m a parts per thousand yen 5 events in the simulation results move progressively towards the hypocenter of the upcoming m a parts per thousand yen 7 earthquake.
The injection of fluids is a well-known origin for the triggering of earthquake sequences. The growing number of projects related to enhanced geothermal systems, fracking, and others has led to the question, which maximum earthquake magnitude can be expected as a consequence of fluid injection? This question is addressed from the perspective of statistical analysis. Using basic empirical laws of earthquake statistics, we estimate the magnitude M-T of the maximum expected earthquake in a predefined future time window T-f. A case study of the fluid injection site at Paradox Valley, Colorado, demonstrates that the magnitude m 4.3 of the largest observed earthquake on 27 May 2000 lies very well within the expectation from past seismicity without adjusting any parameters. Vice versa, for a given maximum tolerable earthquake at an injection site, we can constrain the corresponding amount of injected fluids that must not be exceeded within predefined confidence bounds.
Earthquake catalogs are probably the most informative data source about spatiotemporal seismicity evolution. The catalog quality in one of the most active seismogenic zones in the world, Japan, is excellent, although changes in quality arising, for example, from an evolving network are clearly present. Here, we seek the best estimate for the largest expected earthquake in a given future time interval from a combination of historic and instrumental earthquake catalogs. We extend the technique introduced by Zoller et al. (2013) to estimate the maximum magnitude in a time window of length T-f for earthquake catalogs with varying level of completeness. In particular, we consider the case in which two types of catalogs are available: a historic catalog and an instrumental catalog. This leads to competing interests with respect to the estimation of the two parameters from the Gutenberg-Richter law, the b-value and the event rate lambda above a given lower-magnitude threshold (the a-value). The b-value is estimated most precisely from the frequently occurring small earthquakes; however, the tendency of small events to cluster in aftershocks, swarms, etc. violates the assumption of a Poisson process that is used for the estimation of lambda. We suggest addressing conflict by estimating b solely from instrumental seismicity and using large magnitude events from historic catalogs for the earthquake rate estimation. Applying the method to Japan, there is a probability of about 20% that the maximum expected magnitude during any future time interval of length T-f = 30 years is m >= 9.0. Studies of different subregions in Japan indicates high probabilities for M 8 earthquakes along the Tohoku arc and relatively low probabilities in the Tokai, Tonankai, and Nankai region. Finally, for scenarios related to long-time horizons and high-confidence levels, the maximum expected magnitude will be around 10.
Ökonomen wie Wirtschaftspolitiker berufen sich auf die Neutralitätstheorie des Geldes, wenn sie eine Entpolitisierung der Geldpolitik fordern. Sowohl die Theorie der Geldneutralität als auch das Paradigma der Entpolitisierung der Geldpolitik sind jedoch problematisch. Die politökonomischen Entwicklungen nach der globalen Finanz- und Wirtschaftskrise 2007/2008 und die jüngsten Kontroversen über die Rolle und Bedeutung von Geld haben dies deutlich vor Augen geführt. Die vorliegende Arbeit diskutiert zunächst die konzeptionellen Grundlagen und theoretischen Modelle der Geldneutralität. Anschließend werden die zentralen theoretischen Annahmen und Aussagen der Neutralitätstheorie aus einer kritischen heterodoxen Perspektive hinterfragt. Es wird argumentiert, dass Geld eine nicht-neutrale Produktionskraft ist, die weder ökonomisch noch sozial neutral ist. Die Bedingungen, unter denen Geld verfügbar ist und zirkuliert, sind richtungsweisend für die ökonomische Entwicklung. Daher kann es auch kein neutrales Geld oder gar eine apolitische Geldpolitik geben.
Otto Braun
(2014)
Otto Braun war von 1921 bis 1932 mit kurzen Unterbrechungen Ministerpräsident des Freistaates Preußen. Er war sowohl überzeugter sozialer Demokrat als auch Preuße und betrieb eine entschlossene Reformpolitik, die zwar umstritten war, sich aber stets im Rahmen der Legalität bewegte. Die Grenzen dieses Ansatzes wurden am Ende der Weimarer Republik deutlich, als seine Regierung mit dem sogenannten »Preußenschlag« vom 20. Juli 1932 entmachtet wurde und Braun in Verkennung der neuen machtpolitischen Realitäten vergeblich versuchte, mit legalen Maßnahmen dem illegalen Vorgehen der Reichsregierung entgegenzutreten.
This book presents an agile and model-driven approach to manage scientific workflows. The approach is based on the Extreme Model Driven Design (XMDD) paradigm and aims at simplifying and automating the complex data analysis processes carried out by scientists in their day-to-day work. Besides documenting the impact the workflow modeling might have on the work of natural scientists, this book serves three major purposes: 1. It acts as a primer for practitioners who are interested to learn how to think in terms of services and workflows when facing domain-specific scientific processes. 2. It provides interesting material for readers already familiar with this kind of tools, because it introduces systematically both the technologies used in each case study and the basic concepts behind them. 3. As the addressed thematic field becomes increasingly relevant for lectures in both computer science and experimental sciences, it also provides helpful material for teachers that plan similar courses.
Der vorliegende Band vereint thematisch auf das Essen bezogene Beiträge aus der slavistischen Literatur- und Kulturwissenschaft. Er zeigt das seit einigen Jahren artikulierte Interesse an dem Thema ohne dieses gleich zu einem „culinary turn“ stilisieren zu wollen. Das Essen ist – analysiert man die Präsenz des Themas in Literatur, Film und anderen Medien der Hochkultur – ein Bereich, in und mit dem allgemeinere kulturelle und soziale Prozesse besonders anschaulich gezeigt werden können.
Auch nach Abschluss unseres Brandenburger Antike-Denkwerks (BrAnD) mit dem letzten Durchgang 2010/11 fand jedes Jahr der Potsdamer Lateintag statt ‒ zu ganz unterschiedlichen Themen und mit ca. 500 Teilnehmerinnen und Teilnehmern immer sehr gut besucht: 2011: Antike Geschichtsschreibung, 2012: Tod und Jenseits, 2013: Römische Religion. Der Band versammelt die Vorträge dieser vergangenen Veranstaltungen von N. Holzberg, B. Labahn, Chr. Kunst, S. Büttner-von Stülpnagel, V. Rosenberger und D. Šterbenc Erker.
Unfälle der Sprache
(2014)
Der Begriff »Katastrophe« hat in unserer Alltags- und Mediensprache Hochkonjunktur. Was in der Abfolge von Kriegen, Attentaten, Erdbeben, Vulkanausbrüchen und Tsunamis als »Katastrophe« bezeichnet wird, verlangt nach einer zugespitzten Analyse. In der Literaturwissenschaft wird der Ausdruck als Bezeichnung für das schreckliche Unglück verwendet, mit dem eine Tragödie endet. Die »Strophe« bezeichnet dabei ursprünglich die körperliche Drehung, mit welcher der Chor in der antiken Tragödie seinen Gesang begleitete, bevor etwas Neues beginnt ..
Piketty kontrovers
(2014)
"Berliner Debatte Initial" hat die Veröffentlichung von Thomas Pikettys Bestseller "Das Kapital im 21. Jahrhundert“ zum Anlass genommen, einen breiteren Einblick in die gegenwärtigen wissenschaftlichen Debatten um ökonomische Ungleichheit zu vermitteln. Der Themenschwerpunkt dieses Heftes versammelt Beiträge, die den Anstieg der Ungleichheit aus der Perspektive verschiedener Disziplinen und Denkrichtungen beleuchten. Dabei wird auch die Bedeutung der Bezieher von Spitzeneinkommen (top 1 percent) für die gegenwärtige Gesellschaft diskutiert. Die Auswahl der Texte verdeutlicht die Vielfalt der Aspekte, die die Ungleichheitsproblematik in sich birgt. Dabei wird auch deutlich, dass die Bewertung des Verhältnisses von Staat und Markt sowie die Akzeptanz von ökonomischer Ungleichheit nicht allein aus wirtschaftswissenschaftlichen Theorien und Modellen im engeren Sinne herzuleiten sind, sondern letztlich immer weltanschauliche Axiome sowie Wertorientierungen zur Voraussetzung haben.
Vom Kampf für den Frieden
(2014)
Wissensmanagement und seine Vielfältige Anwendungsfelder sind ein Thema, mit dem Unternehmen täglich auseinandersetzen müssen. Viele Methoden und Ansätze werden entwickelt, die ihnen helfen sollen, diese prozessorientiert umsetzen zu können.
Dieses Buch vermittelt einen Überblick über die aktuellen Konzepte, Methoden und technischen Instrumente des prozessorientierten Wissensmanagements. Es beinhaltet Erfahrungen anderer Unternehmen sowie neue Erkenntnisse aus der Wissenschaft.
Praktiker in Unternehmen finden in diesem Buch ausführliche Methodenbeschreibungen sowie Success Stories aus der Praxis. Wissenschaftler bekommen den aktuellen Stand der Bemühungen zum prozessorientierten Wissensmanagement zusammengestellt und Studierende findet zusammengestellte Kombination von Beiträgen aus Wissenschaft und Praxis, die gleichermaßen Methoden und Anwendungsfälle beschreibt.
2013 jährte sich das Inkrafttreten der Europäischen Menschenrechtskonvention zum 60. Mal. Seit ihrem Bestehen hat die Konvention insbesondere durch den auf ihrer Grundlage gegründeten Gerichtshof den Schutz der Menschenrechte in Europa wesentlich gestärkt. Mit ihren mittlerweile 47 Vertragsparteien ist sie zu einem gesamteuropäischen Grundrechtsschutzsystem geworden, dessen Akzeptanz sich nicht zuletzt an den in den vergangenen Jahren rasant gestiegenen Fallzahlen zeigt. Dennoch steht die EMRK auch in der Zukunft vor besonderen Herausforderungen. Dieser Band stellt den Versuch einer Bilanz der vergangenen 60 Jahre dar und enthält die Beiträge der Vortragenden des Workshops „60 Jahre Europäische Menschenrechtskonvention – die Konvention als ‚living instrument‘“, der anlässlich des Jubiläums durch das MenschenRechtsZentrum der Universität Potsdam veranstaltet wurde. Schwerpunktmäßig beschäftigen sich die Beiträge mit der Rechtsfortbildung durch den EGMR, insbesondere mittels einer dynamischen Auslegung der Konvention, der konstitutionellen Dimension der EMRK, der Durchsetzung seiner Urteile sowie dem Reformbedarf aufgrund gestiegener Arbeitsbelastung.