Refine
Year of publication
- 2012 (1999) (remove)
Document Type
- Article (1277)
- Doctoral Thesis (292)
- Monograph/Edited Volume (123)
- Review (76)
- Postprint (61)
- Conference Proceeding (53)
- Preprint (49)
- Other (25)
- Part of Periodical (22)
- Master's Thesis (11)
Language
Keywords
- Nachhaltigkeit (19)
- Curriculum Framework (18)
- European values education (18)
- Europäische Werteerziehung (18)
- Lehrevaluation (18)
- Politik (18)
- Studierendenaustausch (18)
- Unterrichtseinheiten (18)
- Wirtschaft (18)
- Zukunft (18)
Institute
- Institut für Biochemie und Biologie (261)
- Institut für Physik und Astronomie (218)
- Institut für Chemie (196)
- Institut für Geowissenschaften (171)
- Institut für Romanistik (102)
- Department Psychologie (86)
- Wirtschaftswissenschaften (86)
- Institut für Ernährungswissenschaft (61)
- Institut für Mathematik (60)
- Department Linguistik (58)
In Japan wurden die sogenannten „Heisei no Daigappei“ (Große kommunale Gebietsreform) im Zeitraum von 1999 bis 2006 durchgeführt. Im Ergebnis hat sich die Anzahl der Gemeinden von 3.232 auf 1.727 – also um die Hälfte – reduziert. Auch in den neuen Bundesländern in Deutschland sind in den letzten Jahren wieder kommunale Gebietsreformen (Gemeindefusionen) durchgeführt worden. Trotzdem gibt es in Deutschland noch etwa 12.000 Gemeinden. Im Vergleich mit Japan ist die Gemeindegröße also deutlich geringer. Mit dem vorliegenden Beitrag sollen die Reformunterschiede zwischen Deutschland und Japan erklärt werden. Gefragt wird nach der „Richtung“ und der „Stärke“ der verschiedenen Vektoren (Einflussfaktoren) im Reformprozess der Gemeindefusionen. Besonders reformfördernd wirken in Japan die Vektoren Dezentralisierungsdruck und öffentliche Finanzkrise. Die Unterschiede zwischen Japan und Deutschland beim Vektor demographischer Wandel konnten nicht betrachtet werden. In Deutschland sind für den Reformfortschritt vor allem die Vektoren bürgernahe Demokratie, örtliche Verbundenheit, die Existenz des Ehrenamtsprinzips sowie die Ergänzungsfunktion der Kreise und Ämter ausschlaggebend. Insgesamt betrachtet wirken die Vektoren in Japan stärker reformfördernd als in Deutschland. Deshalb sind im Reformergebnis die Gebietsstrukturen der Gemeinden in Japan derzeit größer als in Deutschland.
Particles in Saturn’s main rings range in size from dust to even kilometer-sized objects. Their size distribution is thought to be a result of competing accretion and fragmentation processes. While growth is naturally limited in tidal environments, frequent collisions among these objects may contribute to both accretion and fragmentation. As ring particles are primarily made of water ice attractive surface forces like adhesion could significantly influence these processes, finally determining the resulting size distribution. Here, we derive analytic expressions for the specific self-energy Q and related specific break-up energy Q⋆ of aggregates. These expressions can be used for any aggregate type composed of monomeric constituents. We compare these expressions to numerical experiments where we create aggregates of various types including: regular packings like the face-centered cubic (fcc), Ballistic Particle Cluster Aggregates (BPCA), and modified BPCAs including e.g. different constituent size distributions. We show that accounting for attractive surface forces such as adhesion a simple approach is able to: a) generally account for the size dependence of the specific break-up energy for fragmentation to occur reported in the literature, namely the division into “strength” and “gravity” regimes, and b) estimate the maximum aggregate size in a collisional ensemble to be on the order of a few meters, consistent with the maximum aggregate size observed in Saturn’s rings of about 10m.
In many applications one is faced with the problem of inferring some functional relation between input and output variables from given data. Consider, for instance, the task of email spam filtering where one seeks to find a model which automatically assigns new, previously unseen emails to class spam or non-spam. Building such a predictive model based on observed training inputs (e.g., emails) with corresponding outputs (e.g., spam labels) is a major goal of machine learning. Many learning methods assume that these training data are governed by the same distribution as the test data which the predictive model will be exposed to at application time. That assumption is violated when the test data are generated in response to the presence of a predictive model. This becomes apparent, for instance, in the above example of email spam filtering. Here, email service providers employ spam filters and spam senders engineer campaign templates such as to achieve a high rate of successful deliveries despite any filters. Most of the existing work casts such situations as learning robust models which are unsusceptible against small changes of the data generation process. The models are constructed under the worst-case assumption that these changes are performed such to produce the highest possible adverse effect on the performance of the predictive model. However, this approach is not capable to realistically model the true dependency between the model-building process and the process of generating future data. We therefore establish the concept of prediction games: We model the interaction between a learner, who builds the predictive model, and a data generator, who controls the process of data generation, as an one-shot game. The game-theoretic framework enables us to explicitly model the players' interests, their possible actions, their level of knowledge about each other, and the order at which they decide for an action. We model the players' interests as minimizing their own cost function which both depend on both players' actions. The learner's action is to choose the model parameters and the data generator's action is to perturbate the training data which reflects the modification of the data generation process with respect to the past data. We extensively study three instances of prediction games which differ regarding the order in which the players decide for their action. We first assume that both player choose their actions simultaneously, that is, without the knowledge of their opponent's decision. We identify conditions under which this Nash prediction game has a meaningful solution, that is, a unique Nash equilibrium, and derive algorithms that find the equilibrial prediction model. As a second case, we consider a data generator who is potentially fully informed about the move of the learner. This setting establishes a Stackelberg competition. We derive a relaxed optimization criterion to determine the solution of this game and show that this Stackelberg prediction game generalizes existing prediction models. Finally, we study the setting where the learner observes the data generator's action, that is, the (unlabeled) test data, before building the predictive model. As the test data and the training data may be governed by differing probability distributions, this scenario reduces to learning under covariate shift. We derive a new integrated as well as a two-stage method to account for this data set shift. In case studies on email spam filtering we empirically explore properties of all derived models as well as several existing baseline methods. We show that spam filters resulting from the Nash prediction game as well as the Stackelberg prediction game in the majority of cases outperform other existing baseline methods.
We develop the method of Fischer-Riesz equations for general boundary value problems elliptic in the sense of Douglis-Nirenberg. To this end we reduce them to a boundary problem for a (possibly overdetermined) first order system whose classical symbol has a left inverse. For such a problem there is a uniquely determined boundary value problem which is adjoint to the given one with respect to the Green formula. On using a well elaborated theory of approximation by solutions of the adjoint problem, we find the Cauchy data of solutions of our problem.
Die Bittergeschmacksrezeptoren stellen in der Superfamilie der G-Protein-gekoppelten Rezeptoren eine besondere Gruppe dar. Im Menschen können die 25 Rezeptoren eine große Anzahl unterschiedlichster Bittergeschmacksstoffe detektieren. Diese Substanzen können sowohl schädlich, wie etwa Strychnin, als auch der Gesundheit förderliche Arzneistoffe, wie etwa Chloramphenicol sein. Unter den Bittergeschmacksrezeptoren des Menschen gibt es eine Gruppe von drei Rezeptoren, die besonders viele Bitterstoffe detektieren können. Einer von ihnen ist der Rezeptor hTAS2R10. In dieser Arbeit konnte sowohl experimentell als auch durch computergestützte Modellierung gezeigt werden, dass der hTAS2R10 nur eine Bindungstasche besitzt. Das stimmt mit den bisher ausführlich experimentell und in silico untersuchten Rezeptoren hTAS2R1, -R16, -R38 und -R46 überein. Die für die Agonisteninteraktionen nachweislich wichtigen Transmembrandomänen sind in den bisher untersuchten Bittergeschmacksrezeptoren, wie auch im hTAS2R10, die Transmembrandomänen 3, 5, 6 und 7. Die Untersuchungen zeigten, dass die Bindungstasche des hTAS2R10 in der oberen Hälfte des zum extrazellulären Raum gerichteten Bereichs lokalisiert ist. Insbesondere konnte für die untersuchten Agonisten Strychnin, Parthenolid und Denatoniumbenzoat gezeigt werden, dass die Seitenketten der Aminosäuren in Position 3.29 und 5.40 ausgeprägte agonistenselektive Wechselwirkungen eingehen. Weitere Untersuchungen haben ergeben, dass das weitgefächerte Agonistenspektrum des hTAS2R10 zu Lasten der Sensitivität für einzelne Bitterstoffe geht. Der Vergleich wichtiger Positionen im hTAS2R10, hTAS2R46 und mTas2r105 hat deutlich gemacht, dass sich die Bindungsmodi zwischen diesen Rezeptoren unterscheiden. Dies deutet auf eine getrennte evolutionäre Entwicklung der Bindungseigenschaften dieser Rezeptoren hin. Gleichfalls zeigten die Untersuchungen, dass einige Positionen wie z.B. 7.39 die Funktion aller untersuchten Bittergeschmacksrezeptoren prägen, sich jedoch die genaue Bedeutung im jeweiligen Rezeptor unterscheiden kann. Einzelne dieser Positionen konnten auch bei der Agonisteninteraktion des Rhodopsins und des β2-adrenergen Rezeptors beobachtet werden. Die Ergebnisse dieser Arbeit helfen dabei die Wechselwirkungen zwischen Bitterstoffen und den Bittergeschmacksrezeptoren zu verstehen und geben erste Einblicke in die Entwicklung der Rezeptoren in Hinblick auf ihren Funktionsmechanismus. Diese Erkenntnisse können genutzt werden, um Inhibitoren zu entwickeln, die sowohl ein wichtiges Werkzeug in der Rezeptoranalytik wären, als auch dazu genutzt werden könnten, den unerwünschten bitteren Geschmack von Medikamenten oder gesundheitsfördernden sekundären Pflanzenstoffen zu mindern. Damit könnte ein Beitrag zur Gesundheit der Menschen geleistet werden.
Deutschland hat sich innerhalb kurzer Zeit zu einem bedeutenden sicherheitspolitischen Akteur im Weltraum entwickelt. Am 1. Dezember 2010 stellte die Bundesregierung die deutsche Raumfahrtstrategie vor. Immer wieder ist die Rede von der strategischen Bedeutung des Weltraums für die deutsche Sicherheitspolitik. Eine fundierte und überprüfbare Begründung für diese Behauptung fehlt indes. Der Politikwissenschaftler Cornelius Vogt analysiert die strategischen Aspekte deutscher Weltraumsicherheitspolitik. Seine Untersuchung des strategischen Umfeldes, der nationalen Interessen, des sicherheitspolitischen Nutzens des Weltraums und der wichtigsten Anwendungsfelder zeigt, dass der Weltraum zum unverzichtbaren Bestandteil der gesamtstaatlichen Sicherheitsvorsorge avanciert ist.
Cellulose is the most abundant biopolymer on earth and the main load-bearing structure in plant cell walls. Cellulose microfibrils are laid down in a tight parallel array, surrounding plant cells like a corset. Orientation of microfibrils determines the direction of growth by directing turgor pressure to points of expansion (Somerville et al., 2004). Hence, cellulose deficient mutants usually show cell and organ swelling due to disturbed anisotropic cell expansion (reviewed in Endler and Persson, 2011). How do cellulose microfibrils gain their parallel orientation? First experiments in the 1960s suggested, that cortical microtubules aid the cellulose synthases on their way around the cell (Green, 1962; Ledbetter and Porter, 1963). This was proofed in 2006 through life cell imaging (Paredez et al., 2006). However, how this guidance was facilitated, remained unknown. Through a combinatory approach, including forward and reverse genetics together with advanced co-expression analysis, we identified pom2 as a cellulose deficient mutant. Map- based cloning revealed that the gene locus of POM2 corresponded to CELLULOSE SYNTHASE INTERACTING 1 (CSI1). Intriguingly, we previously found the CSI1 protein to interact with the putative cytosolic part of the primary cellulose synthases in a yeast-two-hybrid screen (Gu et al., 2010). Exhaustive cell biological analysis of the POM2/CSI1 protein allowed to determine its cellular function. Using spinning disc confocal microscopy, we could show that in the absence of POM2/CSI1, cellulose synthase complexes lose their microtubule-dependent trajectories in the plasma membrane. The loss of POM2/CSI1, however does not influence microtubule- dependent delivery of cellulose synthases (Bringmann et al., 2012). Consequently, POM2/CSI1 acts as a bridging protein between active cellulose synthases and cortical microtubules. This thesis summarizes three publications of the author, regarding the identification of proteins that connect cellulose synthases to the cytoskeleton. This involves the development of bioinformatics tools allowing candidate gene prediction through co-expression studies (Mutwil et al., 2009), identification of candidate genes through interaction studies (Gu et al., 2010), and determination of the cellular function of the candidate gene (Bringmann et al., 2012).
Die Fähigkeit, mit anderen Zellen zu kommunizieren, ist eine grundlegende Eigenschaft aller lebenden Zellen und essentiell für die normale Funktionsweise vielzelliger Organismen. Die Speicheldrüsen der Schmeißfliege Calliphora vicina bilden ein ausgezeichnetes physiologisches Modellsystem um zelluläre Signaltransduktionsprozesse an einem intakten Organ zu untersuchen. Die Speichelsekretion wird dabei hormonell durch das biogene Amin Serotonin (5-Hydroxytryptamin; 5-HT) reguliert. 5-HT aktiviert in den sekretorischen Zellen der Drüsen über die Bindung an mindestens zwei membranständige G-Protein gekoppelte Rezeptoren (GPCR) zwei separate Signalwege, den IP3/Ca2+- und den cAMP-Signalweg. Zur Identifizierung und Charakterisierung der 5-HT-Rezeptoren in den Speicheldrüsen von Calliphora wurden unter Anwendung verschiedener Klonierungsstrategien zwei cDNAs (Cv5-ht2α und Cv5-ht7) isoliert, die große Ähnlichkeit zu 5-HT2- und 5-HT7-Rezeptoren aus Säugetieren aufweisen. Die Hydropathieprofile der abgeleiteten Aminosäuresequenzen postulieren die für GPCRs charakteristische heptahelikale Architektur. Alle Aminosäuremotive, die für die Ligandenbindung, die Rezeptoraktivierung und die Kopplung an G-Proteine essentiell sind, liegen konserviert vor. Interessanterweise wurde für den Cv5-HT7-Rezeptor eine zusätzliche hydrophobe Domäne im N Terminus vorhergesagt. Die Cv5-HT2α-mRNA liegt in zwei alternativ gespleißten Varianten vor. Mittels RT-PCR-Experimenten konnte die Expression beider Rezeptoren in Gehirn und Speicheldrüsen adulter Fliegen nachgewiesen werden. Ein Antiserum gegen den Cv5-HT7 Rezeptor markiert in den Speicheldrüsen die basolaterale Plasmamembran. Die Expression der Rezeptoren in einem heterologen System (HEK 293-Zellen) bestätigte diese als funktionelle 5-HT Rezeptoren. So führte die Stimulation mit Serotonin für den Cv5-HT2α zu einer dosis-abhängigen Erhöhung der intrazellulären Ca2+ Konzentration ([Ca2+]i, EC50 = 24 nM). In Cv5-HT7-exprimierenden Zellen löste 5-HT dosisabhängig (EC50 = 4,1 nM) einen Anstieg der intrazellulären cAMP Konzentration ([cAMP]i) aus. Für beide heterolog exprimierten Rezeptoren wurden pharmakologische Profile erstellt. Liganden, die eine Rezeptorsubtyp-spezifische Wirkung vermuten ließen, wurden daraufhin auf ihre Wirkung auf das transepitheliale Potential (TEP) intakter Speicheldrüsenpräparate getestet. Drei 5-HT-Rezeptoragonisten: AS 19, R-(+)-Lisurid und 5-Carboxamidotryptamin führten zu einer cAMP-abhängigen Positivierung des TEP durch eine selektive Aktivierung der 5 HT7-Rezeptoren. Eine selektive Aktivierung des Ca2+-Signalweges durch den Cv5-HT2 Rezeptor ist mit Hilfe von 5-Methoxytryptamin möglich. Dagegen konnte Clozapin im TEP als selektiver Cv5-HT7-Rezeptorantagonist bestätigt werden. Die Kombination eines molekularen Ansatzes mit physiologischen Messungen ermöglichte somit die Identifikation selektiver Liganden für 5-HT2- bzw. 5-HT7-Rezeptoren aus Calliphora vicina. Dies ermöglicht zukünftig eine separate Aktivierung der 5-HT-gesteuerten Signalwege und erleichtert dadurch die weitere Erforschung der intrazellulären Signalwege und ihrer Wechselwirkungen.
Die gewaltigen Strukturveränderungen im Bereich des Gesundheitswesens, die in den letzten Jahren bereits erfolgten und die, die noch bevorstehen, zwingen Unternehmen, mit geplanten und gesteuerten Veränderungsprozessen die Voraussetzungen für eine kontinuierliche Anpassung an die neuen Gegebenheiten zu schaffen und somit ihre Zukunftsfähigkeit sicherzustellen. Vor diesem Hintergrund wird gezeigt, wie das Excellence-Modell der EFQM als Instrument für Veränderungsprozesse eingesetzt werden kann und es geeignet ist, Veränderungsziele zu definieren und die Zielerreichung zu bewerten. Referenzobjekt der Fallstudienanalyse, die einen Zeitraum von 13 Jahren umfasst, ist der Medizinische Dienst der Krankenversicherung Rheinland-Pfalz. Neben der Analyse und Darstellung von theoretischen Grundlagen wird an einem Unternehmen des Gesundheitswesens beispielhaft gezeigt, wie die Umsetzung in der Praxis unter Einsatz des EFQM-Modells erfolgen kann. Da das EFQM-Modell mit seiner Systematik unternehmensunabhängig eingesetzt werden kann, sind Lern- und Übertragungsmöglichkeiten strukturiert möglich. Es wird der Nachweis erbracht, dass sich das EFQM-Modell im Rahmen eines Management- und Qualitätssteue-rungsmodells als Universalmethode nutzen lässt, sofern das Management über die Kompe-tenz branchenspezifischer Anpassung verfügt. Auf dem Weg zu organisatorischer Excel-lence wird gezielt an Planungs- und Prognosetechniken des strategischen Managements (SWOT, Szenario-Analyse, Portfolio-Analyse) angeknüpft und auf das VRIO-Paradigma des Resource-based View Bezug genommen. Das EFQM-Modell wird dem Stresstest des ressourcenstrategischen Ansatzes unterzogen, um so zu zeigen, dass es sich beim EFQM-Modell um ein einzigartiges, schwer imitierbares, kaum zu substituierendes, organisatorisch verankertes und kundennutzen-stiftendes Er-folgspotenzial handeln kann. Die Arbeit liefert Impulse und konkrete Anregungen, die zu einem hohen managementprakti-schen Erkenntniszuwachs für den erfolgreichen Umgang mit dem EFQM-Modell und dem Einsatz von Qualitätsmanagementsystemen führen können.
PaRDeS. Zeitschrift der Vereinigung für Jüdische Studien e. V., möchte die fruchtbare und facettenreiche Kultur des Judentums sowie seine Berührungspunkte zur Umwelt in den unterschiedlichen Bereichen dokumentieren. Daneben dient die Zeitschrift als Forum zur Positionierung der Fächer Jüdische Studien und Judaistik innerhalb des wissenschaftlichen Diskurses sowie zur Diskussion ihrer historischen und gesellschaftlichen Verantwortung.
During the overall development of complex engineering systems different modeling notations are employed. For example, in the domain of automotive systems system engineering models are employed quite early to capture the requirements and basic structuring of the entire system, while software engineering models are used later on to describe the concrete software architecture. Each model helps in addressing the specific design issue with appropriate notations and at a suitable level of abstraction. However, when we step forward from system design to the software design, the engineers have to ensure that all decisions captured in the system design model are correctly transferred to the software engineering model. Even worse, when changes occur later on in either model, today the consistency has to be reestablished in a cumbersome manual step. In this report, we present in an extended version of [Holger Giese, Stefan Neumann, and Stephan Hildebrandt. Model Synchronization at Work: Keeping SysML and AUTOSAR Models Consistent. In Gregor Engels, Claus Lewerentz, Wilhelm Schäfer, Andy Schürr, and B. Westfechtel, editors, Graph Transformations and Model Driven Enginering - Essays Dedicated to Manfred Nagl on the Occasion of his 65th Birthday, volume 5765 of Lecture Notes in Computer Science, pages 555–579. Springer Berlin / Heidelberg, 2010.] how model synchronization and consistency rules can be applied to automate this task and ensure that the different models are kept consistent. We also introduce a general approach for model synchronization. Besides synchronization, the approach consists of tool adapters as well as consistency rules covering the overlap between the synchronized parts of a model and the rest. We present the model synchronization algorithm based on triple graph grammars in detail and further exemplify the general approach by means of a model synchronization solution between system engineering models in SysML and software engineering models in AUTOSAR which has been developed for an industrial partner. In the appendix as extension to [19] the meta-models and all TGG rules for the SysML to AUTOSAR model synchronization are documented.
rezensiertes Werk: Diana Matut: Dichtung und Musik im frühneuzeitlichen Aschkenas : Ms. opp. add. 4o 136 der Bodleian Library, Oxford (das so genannte Wallich-Manuskript) und Ms. hebr. oct. 219 der Stadt- und Universitätsbibliothek, Frankfurt a. M. (2 Bände). - (Studies in Jewish History and Culture ; 29). Leiden [u.a.]: Brill, 2011. - 461 S. ISBN (Set) 978-90-04-18194-6 ISBN (Band I) 978-90-04-20598-7 ISBN (Band II) 978-90-04-20599-4
rezensiertes Werk: Jeffrey Burns: The music of psalms, Proverbs and Job in the Hebrew bible : A revised theory of musical accents in the Hebrew bible ; general analysis, bibliography, table of contents CD with complete text and audio files of musically reconstructed psalms, proverbs and Job, sung by computer speech synthesis. Wiesbaden : Harrassowitz Verlag, 2011. 169 S. ISBN 978-3-447-06191-9
rezensierte Werke: Chaim Vogt-Moykopf: Jüdisches Denken als universelles Konzept in der deutschsprachigen Literatur. - Frankfurt [u.a.] : Campus, 2009. - 280 S. ISBN 978-3-593-38910-3 Johannes Sabel: Die Geburt der Literatur aus der Aggada : Formationen eines deutsch-jüdischen Literaturparadigmas. - (Schriftenreihe wissenschaftlicher Abhandlungen des Leo Baeck Instituts ; 74). - Tübingen : Mohr Siebeck, 2010. - X, 296 S. ISBN 978-3-16-150209-5
rezensiertes Werk: Magdalena Bendowska, Jan Doktór: Świat ukryty w Księgach. Stare Druki hebrajskie ze zbiorów Żydowskiego Instytutu Historycznego [Die Welt, in Büchern verborgen – Alte hebräische Drucke aus den Sammlungen des Jüdischen Historischen Instituts in Warschau]. - Warschau : 2011, 140 S. ISBN 978-83-61850-40-3
Das „Gesetz zur Zahlbarmachung von Renten aus Beschäftigungen in einem Ghetto” (ZRBG) aus dem Jahre 2002 machte es erforderlich, das Phänomen und den im Gesetz verwendeten Begriff „Ghetto“ juristisch einer eindeutigen Klärung zuzuführen. Die hierbei aufgetretenen Fragen und Probleme sollen nachfolgend dargestellt werden.
Das „Reichsinstitut für Geschichte des neuen Deutschlands“ begann im Jahr 1942 mit dem Projekt „Sicherstellung des historischen und anthropologischen Materials der Judenfriedhöfe in Deutschland“. Die Aufnahme des Projektes und die Anweisung zur fotografischen Friedhofsdokumentation erfolgten vordergründig aufgrund der bevorstehenden Auflassung der jüdischen Friedhöfe im deutschsprachigen Gebiet, eigentlich intendierten die Institutsmitarbeiter aber die systematische genealogisch-demographische, migrationsgeschichtliche und „rassenkundliche“ Erfassung der jüdischen Bevölkerung. Mittels einer fotografischen Dokumentation von Grabsteininschriften sollten diese Vorarbeiten zeitlich ausgeweitet und nunmehr auch die Juden erfasst werden, die vor Einführung der Personenstandsregister in deutschen Territorien lebten und deren Nachkommen auf diese Weise im Sinne der nationalsozialistischen Rassen- und Abstammungspolitik „nachgewiesen“ werden konnten. Dieser Artikel soll dazu beitragen, Kenntnis über erhaltene Dokumente, Korrespondenzen und Fotografien zu erlangen, die in Archiven, Nachlässen oder Sammlungen konserviert bzw. in regional- und lokalgeschichtlichen Aufsätzen verarbeitet wurden und denen bisher keine Aufmerksamkeit als Bestandteil einer überregionalen, auf Reichsebene durchgeführten Aktion beigemessen wurde.
Im Jahr 1622/23 erschien in Venedig unter dem Titel „Lieder Salomons“ eine Vertonung hebräischer Texte, die der Komponist Salamone Rossi Hebreo anfertigte. Dabei handelt es sich um 33 Lieder, die wie im Vorwort zu lesen ist, auch für den synagogalen Gebrauch gedacht waren. An diesem außergewöhnlichen Projekt war der Rabbiner Leon Modena maßgeblich beteiligt, der die Drucklegung praktisch unterstützte und mittels mehrerer Paratexte (darunter positive Gutachten rabbinischer Kollegen) Einwänden gegen ein solches Unternehmen zuvorkommen wollte. Das Werk stellt ein Amalgam jüdischer und nicht-jüdischer Traditionen dar – bewerkstelligt von zwei Akteuren, die sich ihrer jüdischen Herkunft stets bewusst waren. Die Wiederentdeckung im 19. Jahrhundert und das heutige Interesse an dieser Musik stehen für einen späten Triumph der beiden Protagonisten.
Die Seele der Sprache
(2012)
Eine der faszinierendsten Facetten der jüdischen Sprachmystik ist die Betrachtung der hebräischen Vokale als Träger der göttlichen Wirkkraft. Mit der aufblühenden Kabbala im 12. und 13. Jahrhundert entstanden in unterschiedlichen Zusammenhängen zahlreiche Theorien über die symbolische Bedeutung der Vokale, deren Form, Klang, Schreibweise oder auch grammatikalische Funktion Anlass zu mystischen Spekulationen gaben. In diesem Beitrag wird anhand ausgesuchter Beispiele der Versuch unternommen, die unterschiedlichen Lesarten der Vokale vorzustellen und die wichtigsten vokalmystischen Schulen herauszuarbeiten.
This paper explores questions surrounding corporeality and heavenly ascent, in texts ranging from 1 Enoch to the Hekhalot literature, including Philo’s works. It examines both descriptions of the heavenly realms and accounts of the ascent process. Despite his Platonic apophaticism, Philo superimposes cosmological and spiritual heavens, and draws upon the biblical imagery of dazzling glory. Although they do not express themselves in philosophical language, the heavenly ascent texts make it clear that human beings cannot ascend to heaven in their earthly bodies, and that God cannot be seen with terrestrial eyes. In terms of ideas they are not so far from the philosopher Philo as might at first appear.
This article examines Pierre Nora’s concept of memory using the examples of York and Winchester to demonstrate the individuality of local approaches to the memory of medieval Anglo-Jewries. Overall, this paper will highlight how memory can be rescued from a period of prolonged silence and reintegrated back into a wider historical narrative. Conversely it will also examine how in stark contrast to this new attitude of remembering the silence surrounding Jewish memory continues to exist elsewhere. Finally this paper will ask why this silence remains, and question whether Nora’s theory that memory is constantly evolving is applicable to the experiences of Jewish memory in York and Winchester.
This article considers one of the major weaknesses in the existing historiography of Irish Jewry, the failure to consider the true extent and impact of antisemitism on Ireland’s Jewish community. This is illustrated through a brief survey of one small area of the Irish-Jewish narrative, the Jewish relationship with Irish nationalist politics. Throughout, the focus remains on the need for a fresh approach to the sources and the issues at hand, in order to create a more holistic, objective and inclusive history of the Jewish experience in Ireland.
Die Hauptströmung der orthodoxen jüdischen Gemeinschaft in Großbritannien, die vollständig integriert ist und am britischen Leben teilnimmt, scheint in gewisser Hinsicht, als ein beispielhaftes Modell für ein modernes orthodoxes Judentums gelten zu können. Der Begriff „Minhag Anglia” kann jedoch auch verwendet werden, um die oftmals unsystematisch von statten gehende Vermischung von Jüdischkeit und Britentum zu beschreiben, die als anglo-jüdische Lebensweise charakterisiert werden kann. In diesem Beitrag wird in Erwägung gezogen, ob der allgemein unreflektierte Charakter des „Minhag Anglia” es ausschließe, dass dieser als eine Strategie des modernen orthodoxen Judentums fungiere.
Traditionelle Verwaltungsverfahren stehen seit längerem und zunehmend in der Kritik. Das klassische Fürsorge-Modell wird vor allem im Umweltbereich nicht mehr akzeptiert. Betroffene Bürger und Verbände wollen verstärkt mitreden und Entscheidungen nicht der Verwaltung und externen Experten überlassen. Das Verfahren der Mediation wird in der Bundesrepublik Deutschland inzwischen in einer Vielzahl von öffentlich-rechtlichen Problembereichen eingesetzt. Besonders auf kommunaler Ebene bietet sich ihr Einsatz an. Diese Arbeit beschäftigt sich aus verwaltungswissenschaftlicher und -rechtlicher Perspektive mit der Mediation im Rahmen der kommunalen Bauleitplanung. Aufgrund der Innovationsoffenheit und Flexibilität bei gleichzeitiger Komplexität und Kooperationsabhängigkeit des Rechts der Bauleitplanung ist dieses besonders für die Anwendung von Mediation geeignet. Das Arbeitsheft führt in das Verfahren der Mediation und seine Begriffe ein, beleuchtet die Charakteristika und Mängel des herkömmlichen Verwaltungsverfahrens und widmet sich dann der Mediation im öffentlichen Bereich. Diese wird anhand der Möglichkeit ihres Einsatzes in der Bauleitplanung auf kommunaler Ebene näher dargestellt, ihre Vor- und Nachteile werden gegeneinander abgewogen. Somit gibt dieses Arbeitsheft eine kompakte, aber dennoch detailreiche Übersicht über den aktuellen Stand der Diskussion zur Mediation im öffentlichen Bereich.
Über die Autoren
(2012)
Im Juli des Jahres 1841 kommt es zu einem Treffen zwischen zwei Männern, das zunächst belanglos erscheint, sich aber Jahre später als wichtige historische Begebenheit herausstellen wird. In seinem Pariser Büro empfängt der 71jährige Naturforscher Alexander von Humboldt den jungen Preußen Ludwig Leichhardt. Der angehende Naturwissenschaftler erhofft sich Zuspruch und Empfehlung des berühmten Alexander von Humboldts. Die Unterredung ist kurz und verläuft für Leichhardt ergebnislos. Es wird das einzige Treffen der beiden Naturwissenschaftler bleiben. Aus heutiger Sicht unverständlich, da Ludwig Leichhardt und Alexander von Humboldt mehr verband, als ihre Leidenschaft für die Naturwissenschaften. Viel zu wenig ist sich bis jetzt den biographischen Analogien und den vergleichbaren geographischen Leistungen der beiden Preußen gewidmet worden.
Carlos Montúfar (1780-1816) war ab Quito das dritte ständige Mitglied der amerikanischen Humboldt-Expedition zusammen mit Aimé Bonpland. Das Tagebuch, das er vom 9. Juni bis zum 10. September 1802 kurz vor Cajamarca führte, ist von Interesse für Humboldt-Forscher, zumal Bonpland scheinbar keine Zeugnisse weder in Brief- noch in Tagebuchform überlieferte. Recherchen am Original des Montúfar-Tagebuchs ergaben, dass die 1888 veröffentlichte Transkription durch Marcos Jiménez de la Espada aus verschiedenen Gründen problematisch ist. Es muss deshalb ein Desiderat der Humboldt-Forschung sein, eine korrigierte und kommentierte Transkription vorzulegen. Das geschieht hier zusammen mit einer digitalisierten Kopie des Originals
Der kurze, nicht vollständig erhaltene Briefwechsel zwischen Alexander von Humboldt und Karl Ernst von Baer behandelt sehr verschiedene Themen: Politik, Kriegsgefahr, den Wissenschaftsbetrieb, Auszeichnungen und Tagungen, Embryologie und Cholera. Gemeinsam mit Briefen und Reden ergibt sich dabei ein differenziertes Bild der Beurteilung der beiden Wissenschaftler durch den jeweils anderen. Während Baer sich als Bewunderer Humboldts erweist, erscheint umgekehrt Humboldts Einschätzung Baers als ambivalent.
This study is based on an editorial report, which was presented at the 2009 working conference »Alexander von Humboldt and the Hemisphere« at Vanderbilt University (Nashville, TN). It demonstrates the textual genesis of Humboldt’s writings on Cuba through examples, which were obtained from a detailed text comparison of the three existing »original« versions of Humboldt’s Essai politique sur l’île de Cuba. The collation was part of a larger strategy to regain philological ground for the »Humboldt in English« (HiE) project. Since 2007 and funded with grants from the National Endowment for the Humanities, the Alexander von Humboldt-Foundation, and the Gerda Henkel Foundation, the US-German research team behind HiE has been working on new and unabridged translations and critical editions of three of Humboldt’s most significant texts from his American oeuvre.1 The following observations will outline the most important results of this collation effort as a complementary contribution to the recent release of the HiE project’s first volume, The Political Essay on the Island of Cuba (Chicago University Press 2011), edited by Vera M. Kutzinski and Ottmar Ette.
Porous materials (e.g. zeolites, activated carbon, etc.) have found various applications in industry, such as the use as sorbents, catalyst supports and membranes for separation processes. Recently, much attention has been focused on synthesizing porous polymer materials. A vast amount of tailor-made polymeric systems with tunable properties has been investigated. Very often, however, the starting substances for these polymers are of petrochemical origin, and the processes are all in all not sustainable. Moreover, the new polymers have challenged existing characterizing methodologies. These have to be further developed to address the upcoming demands of the novel materials. Some standard techniques for the analysis of porous substances like nitrogen sorption at 77 K do not seem to be sufficient to answer all arising questions about the microstructure of such materials. In this thesis, microporous polymers from an abundant natural resource, betulin, will be presented. Betulin is a large-scale byproduct of the wood industry, and its content in birch bark can reach 30 wt.%. Based on its rigid structure, polymer networks with intrinsic microporosity could be synthesized and characterized. Apart from standard nitrogen and carbon dioxide sorption at 77 K and 273 K, respectively, gas sorption has been examined not only with various gases (hydrogen and argon) but also at various temperatures. Additional techniques such as X-ray scattering and xenon NMR have been utilized to enable insight into the microporous structure of the material. Starting from insoluble polymer networks with promising gas selectivities, soluble polyesters have been synthesized and processed to a cast film. Such materials are feasible for membrane applications in gas separation. Betulin as a starting compound for polyester synthesis has aided to prepare, and for the first time to thoroughly analyse a microporous polyester with respect to its pores and microstructure. It was established that nitrogen adsorption at 87 K can be a better method to solve the microstructure of the material. In addition to that, other betulin-based polymers such as polyurethanes and polyethylene glycol bioconjugates are presented. Altogether, it has been shown that as an abundant natural resource betulin is a suitable and cheap starting compound for some polymers with various potential applications.
„Der kluge Spieler und die Ethik des Computerspielens“ ist eine moralphilosophische Analyse der sogenannten „Killerspiel-Diskussion“. Als Aufhänger dient der Amoklauf von Winnenden, in dessen Nachgang Diskussionen über Computerspiele, speziell solche mit gewalthaltigem Inhalt, aufkamen. In der öffentlichen Meinung wird häufig davon ausgegangen, dass das Spielen solcher Computerspiele auch in der Realität zu gewalttätigem Verhalten führt. Einige Politiker stellen diese Spiele sogar mit Kinderpornographie gleich. Mithilfe dreier bekannter normativer ethischer Theorien – dem Konsequentialismus (Mill), der Deontologie (Kant) und der Tugendethik (Aristoteles) – werden die wissenschaftlichen Argumente contra Computerspiele analysiert und bewertet. Die Computerspielgegner konzentrieren sich auf den Inhalt und die grafische Darstellung der Spiele (narratologischer Ansatz). Am Ende einer ausführlichen Darstellung ihrer Argumente stellt sich heraus, dass keines davon haltbar ist, wenn man die ethischen Theorien auf sie anwendet. Einzig der tugendethische Ansatz scheint Ansätze zu bieten, auf denen man aufbauen kann, allerdings nicht gegen, sondern für Spiele. Diesem wird im zweiten Teil des Buches nachgegangen. Miguel Sicarts Werk „The Ethics of Computer Games“ versucht, eine konkrete Ethik des Computerspiels zu entwickeln. In „Der kluge Spieler und die Ethik des Computerspielens“ wird Sicarts Werk zum ersten Mal im Deutschen vorgestellt, in seine einzelnen Bestandteile zerlegt und re-strukturiert. In Sicarts Ethik-Konzept für Computerspiele werden die Inhalte und die Grafik der Computerspiele komplett außen vor gelassen. Sein Ansatz ist ein ludologischer (spielwissenschaftlicher), der das Regelwerk und System der Spiele in den Vordergrund schiebt. Die drei Kernelemente seiner Theorie werden dargestellt: 1. das Computerspiel als moralisches Objekt, 2. der Computerspieler als moralisches Subjekt und 3. das Computerspielen als moralische Handlung. Diese drei Aspekte wirken zusammen und miteinander. Es entsteht eine Wechselwirkung zwischen dem Spiel und dem Spieler, in den auch das Nicht-Spieler-Subjekt einbezogen wird. Ein Mensch spielt ein Computerspiel und wird dadurch zum Spieler dieses Spiels. Er nimmt das Regelwerk auf und ruft seine vorhandene Erfahrung aus früheren Spielen ab, um somit ein möglichst gelungenes Spielen zu bewerkstelligen. Damit ist gemeint, dass er nicht schummelt, dass er keine Tricks anwendet, dass er in Mehrspielerspielen Fairplay walten lässt etc. Zusätzlich ist dieser Spieler aber nicht nur ein Spieler, sondern er befindet sich in sozialen Kontexten, hat Werte und Ansichten und diese fließen in sein Spieler-Repertoire ein. In solch einer Wechselwirkung verhält sich der Spieler moralisch korrekt, wenn er dem Spiel zu dem verhilft, was es ist: eine Erfahrung. Das Spiel ist nämlich zweierlei: 1. Das Objekt, also eine CD in einer Hülle mit einer Spielanleitung etc. 2. Das Spiel, das am Bildschirm tatsächlich erfahren wird, indem es gespielt wird. Sieht das Spiel eine gewalthaltige Lösung vor, ist es in Sicarts Ethik des Computerspiels moralisch richtig, diese zu vollziehen. Was Sicart mit seiner Theorie letztendlich zeichnet, ist das Bild eines „klugen Spielers“. Der dritte Teil des Buches analysiert Sicarts Ethik des Computerspiels und zeigt mithilfe eines praktischen Beispiels seine Schwachstelle auf. Während die Computerspielgegner sich ausschließlich auf den Inhalt und die Grafik konzentrieren, ignoriert Sicart sie gänzlich. Somit stellen beide Ansätze Extrempositionen dar. Sicarts Ansatz wird in eine „Ethik des Computerspielens“ uminterpretiert und anschließend auf die Diskussionen rund um den Amoklauf von Winnenden angewendet. Dadurch können die Ausgangsargumente gegen Killerspiele endgültig wissenschaftlich widerlegt werden. Im letzten Teil des Buches wird die Brücke zum tugendethischen Ansatz des Aristoteles geschlagen: der gemäßigte Mittelweg führt zu einem guten Leben. Eine komplette Computerspielethik muss beide Aspekte beinhalten: den grafisch-inhaltlichen („narratologischen“) und den spieltechnischen („ludologischen“) Ansatz. Nur im Zusammenspiel beider kann eine umfassende Computerspielethik gesucht und gefunden werden. Hierzu wird ein Grundgerüst vorgeschlagen sowie zwei Ideen, welche für weitere Forschung auf dem Gebiet verwendet werden können.
Inhalt:
- Thomas Schmuck: Der Briefwechsel zwischen Alexander von Humboldt und Karl Ernst von Baer
- Reinhard Andress / Silvia Navia: Das Tagebuch von Carlos Montúfar: Faksimile und neue Transkription
- Tobias Kraft: Textual Differences in Alexander von Humboldt’s Essai politique sur l’île de Cuba. An editorial commentary on the first volume of the »Humboldt in English« (HiE) book series
- Aliya-Katarina Südfels: Ludwig Leichhardt und Alexander von Humboldt
- Ilse Jahn: Die Beziehung Karl Ernst von Baers zu Berliner Zoologen während seines Wirkens in Königsberg (1818-1834)
The present work is devoted to establishing of a new generation of self-healing anti-corrosion coatings for protection of metals. The concept of self-healing anticorrosion coatings is based on the combination of the passive part, represented by the matrix of conventional coating, and the active part, represented by micron-sized capsules loaded with corrosion inhibitor. Polymers were chosen as the class of compounds most suitable for the capsule preparation. The morphology of capsules made of crosslinked polymers, however, was found to be dependent on the nature of the encapsulated liquid. Therefore, a systematic analysis of the morphology of capsules consisting of a crosslinked polymer and a solvent was performed. Three classes of polymers such as polyurethane, polyurea and polyamide were chosen. Capsules made of these polymers and eight solvents of different polarity were synthesized via interfacial polymerization. It was shown that the morphology of the resulting capsules is specific for every polymer-solvent pair. Formation of capsules with three general types of morphology, such as core-shell, compact and multicompartment, was demonstrated by means of Scanning Electron Microscopy. Compact morphology was assumed to be a result of the specific polymer-solvent interactions and be analogues to the process of swelling. In order to verify the hypothesis, pure polyurethane, polyurea and polyamide were synthesized; their swelling behavior in the solvents used as the encapsulated material was investigated. It was shown that the swelling behavior of the polymers in most cases correlates with the capsules morphology. Different morphologies (compact, core-shell and multicompartment) were therefore attributed to the specific polymer-solvent interactions and discussed in terms of “good” and “poor” solvent. Capsules with core-shell morphology are formed when the encapsulated liquid is a “poor” solvent for the chosen polymer while compact morphologies are formed when the solvent is “good”. Multicompartment morphology is explained by the formation of infinite networks or gelation of crosslinked polymers. If gelation occurs after the phase separation in the system is achieved, core-shell morphology is present. If gelation of the polymer occurs far before crosslinking is accomplished, further condensation of the polymer due to the crosslinking may lead to the formation of porous or multicompartment morphologies. It was concluded that in general, the morphology of capsules consisting of certain polymer-solvent pairs can be predicted on the basis of polymer-solvent behavior. In some cases, the swelling behavior and morphology may not match. The reasons for that are discussed in detail in the thesis. The discussed approach is only capable of predicting capsule morphology for certain polymer-solvent pairs. In practice, the design of the capsules assumes the trial of a great number of polymer-solvent combinations; more complex systems consisting of three, four or even more components are often used. Evaluation of the swelling behavior of each component pair of such systems becomes unreasonable. Therefore, exploitation of the solubility parameter approach was found to be more useful. The latter allows consideration of the properties of each single component instead of the pair of components. In such a manner, the Hansen Solubility Parameter (HSP) approach was used for further analysis. Solubility spheres were constructed for polyurethane, polyurea and polyamide. For this a three-dimensional graph is plotted with dispersion, polar and hydrogen bonding components of solubility parameter, obtained from literature, as the orthogonal axes. The HSP of the solvents are used as the coordinates for the points on the HSP graph. Then a sphere with a certain radius is located on a graph, and the “good” solvents would be located inside the sphere, while the “poor” ones are located outside. Both the location of the sphere center and the sphere radius should be fitted according to the information on polymer swelling behavior in a number of solvents. According to the existing correlation between the capsule morphology and swelling behavior of polymers, the solvents located inside the solubility sphere of a polymer give capsules with compact morphologies. The solvents located outside the solubility sphere of the solvent give either core-shell or multicompartment capsules in combination with the chosen polymer. Once the solubility sphere of a polymer is found, the solubility/swelling behavior is approximated to all possible substances. HSP theory allows therefore prediction of polymer solubility/swelling behavior and consequently the capsule morphology for any given substance with known HSP parameters on the basis of limited data. The latter makes the theory so attractive for application in chemistry and technology, since the choice of the system components is usually performed on the basis of a large number of different parameters that should mutually match. Even slight change of the technology sometimes leads to the necessity to find the analogue of this or that solvent in a sense of solvency but carrying different chemistry. Usage of the HSP approach in this case is indispensable. In the second part of the work examples of the HSP application for the fabrication of capsules with on-demand-morphology are presented. Capsules with compact or core-shell morphology containing corrosion inhibitors were synthesized. Thus, alkoxysilanes possessing long hydrophobic tail, combining passivating and water-repelling properties, were encapsulated in polyurethane shell. The mechanism of action of the active material required core-shell morphology of the capsules. The new hybrid corrosion inhibitor, cerium diethylhexyl phosphate, was encapsulated in polyamide shells in order to facilitate the dispersion of the substance and improve its adhesion to the coating matrix. The encapsulation of commercially available antifouling agents in polyurethane shells was carried out in order to control its release behavior and colloidal stability. Capsules with compact morphology made of polyurea containing the liquid corrosion inhibitor 2-methyl benzothiazole were synthesized in order to improve the colloidal stability of the substance. Capsules with compact morphology allow slower release of the liquid encapsulated material compared to the core-shell ones. If the “in-situ” encapsulation is not possible due to the reaction of the oil-soluble monomer with the encapsulated material, a solution was proposed: loading of the capsules should be performed after monomer deactivation due to the accomplishment of the polymerization reaction. Capsules of desired morphologies should be preformed followed by the loading step. In this way, compact polyurea capsules containing the highly effective but chemically active corrosion inhibitors 8-hydroxyquinoline and benzotriazole were fabricated. All the resulting capsules were successfully introduced into model coatings. The efficiency of the resulting “smart” self-healing anticorrosion coatings on steel and aluminium alloy of the AA-2024 series was evaluated using characterization techniques such as Scanning Vibrating Electron Spectroscopy, Electrochemical Impedance Spectroscopy and salt-spray chamber tests.
Ten polyQ (polyglutamine) diseases constitute a group of hereditary, neurodegenerative, lethal disorders, characterized by neuronal loss and motor and cognitive impairments. The only common molecular feature of polyQ disease-associated proteins is the homopolymeric polyglutamine repeat. The pathological expansion of polyQ tract invariably leads to protein misfolding and aggregation, resulting in formation of the fibrillar intraneuronal deposits (aggregates) of the disease protein. The polyQ-related cellular toxicity is currently attributed to early, small, soluble aggregate species (oligomers), whereas end-stage, fibrillar, insoluble aggregates are considered to be benign. In the complex cellular environment aggregation and toxicity of mutant polyQ proteins can be affected by both the sequences of the corresponding disease protein (factors acting in cis) and the cellular environment (factors acting in trans). Additionally, the nucleus has been suggested to be the primary site of toxicity in the polyQ-based neurodegeneration. In this study, the dynamics and structure of nuclear and cytoplasmic inclusions were examined to determine the intrinsic and extrinsic factors influencing the cellular aggregation of atrophin-1, a protein implicated in the pathology of dentatorubral-pallidoluysian atrophy (DRPLA), a polyQ-based disease with complex clinical features. Dynamic imaging, combined with biochemical and biophysical approaches revealed a large heterogeneity in the dynamics of atrophin-1 within the nuclear inclusions compared with the compact and immobile cytoplasmic aggregates. At least two types of inclusions of polyQ-expanded atrophin-1 with different mobility of the molecular species and ability to exchange with the surrounding monomer pool coexist in the nucleus of the model cell system, neuroblastoma N2a cells. Furthermore, our novel cross-seeding approach which allows for monitoring of the architecture of the aggregate core directly in the cell revealed an evolution of the aggregate core of the polyQ-expanded ATN1 from one composed of the sequences flanking the polyQ domain at early aggregation phases to one dominated by the polyQ stretch in the later aggregation phase. Intriguingly, these changes in the aggregate core architecture of nuclear and cytoplasmic inclusions mirrored the changes in the protein dynamics and physico-chemical properties of the aggregates in the aggregation time course. 2D-gel analyses followed by MALDI-TOF MS (matrix-assisted laser desorption/ionization time of flight mass spectrometry) were used to detect alterations in the interaction partners of the pathological ATN1 variant compared to the non-pathological ATN1. Based on these results, we propose that the observed complexity in the dynamics of the nuclear inclusions provides a molecular explanation for the enhanced cellular toxicity of the nuclear aggregates in polyQ-based neurodegeneration.