Refine
Year of publication
- 2010 (1445) (remove)
Document Type
- Article (817)
- Doctoral Thesis (248)
- Monograph/Edited Volume (188)
- Review (54)
- Postprint (49)
- Conference Proceeding (25)
- Part of Periodical (18)
- Preprint (16)
- Master's Thesis (10)
- Other (6)
Language
- English (705)
- German (686)
- Spanish (21)
- French (13)
- Italian (9)
- Multiple languages (9)
- Polish (1)
- Portuguese (1)
Keywords
- Deutschland (20)
- Germany (19)
- Poland (18)
- Polen (18)
- Integration (17)
- Consolidation (15)
- European Union (15)
- Europäische Union (15)
- Vertiefung (15)
- Humboldt und Hispanoamerika (5)
Institute
- Institut für Biochemie und Biologie (162)
- Institut für Romanistik (103)
- Institut für Chemie (95)
- Institut für Geowissenschaften (90)
- Institut für Physik und Astronomie (90)
- Historisches Institut (80)
- Wirtschaftswissenschaften (76)
- Institut für Informatik und Computational Science (59)
- Institut für Jüdische Studien und Religionswissenschaft (54)
- Department Linguistik (52)
Sikum Hilkhot Shabat
(2010)
This document summarises the commandments of Shabbat.
Das Dokument ist eine Zusammenfassung der wesentlichen Aspekte zu Rosh Sukka.
Für den Umgang post-autoritärer Gesellschaften mit den Tätern von Menschenrechtsverletzungen der Vorgängerregime gibt es zahlreiche Möglichkeiten. Neben der legalen Strafverfolgung haben sich seit Mitte der 1970er Jahre vor allem Wahrheitskommissionen als Form gegenseitiger Versöhnung zwischen Tätern und Opfern etabliert. Die vorliegende Studie gibt aus der Perspektive der vergleichenden Politikfeldforschung eine Antwort auf die Frage, welche politischen Faktoren der Wahrheitskommissionen in Uruguay, Panama und Ghana zu einer Verzögerung bei den Aufarbeitungsprozessen nach der Transition führen. Dazu werden aus der Theorie von Transitional Justice Hypothesen zur Machtverteilung, dem Ausmaß der Menschenrechtsverletzungen und den zivil-militärischen Reformen für verspätete Wahrheitskommissionen abgeleitet, welche zur Plausibilisierung der Verzögerung beitragen. Im empirisch-analytischen Teil der Arbeit wird in der Untersuchungs- und Kontrollgruppe deutlich, dass im Vergleich zu transitionsnahen Wahrheitskommissionen ein niedrigeres Niveau an Menschenrechtsverletzungen den politischen Druck für die Aufarbeitung hemmt und die Täter als demokratisch gewählte Machthaber nach der Transition kein Interesse an der Wahrheit haben (Ghana und Panama) bzw. mit den neuen Machthabern paktierten (Uruguay). Zudem zeigt die Studie, dass zivil-militärische Reformen keinen Einfluss auf die Aufarbeitung der Wahrheit haben, wie in der Literatur argumentiert wird. Auch wird angezweifelt, dass sich die politische Machtverteilung bei der Einsetzung von Wahrheitskommissionen im Gleichgewicht befindet.
Ghana ist ein Musterbeispiel dafür, dass ein Entwicklungsland den Weg zu Good Governance schaffen kann. In vielen Studien wird dem Land im afrikanischen Vergleich heute bescheinigt, hier ein Vorreiter zu sein. Dies ist Ausgangslage der vorliegenden Studie, die der Frage nachgeht „Welche Gründe, Muster und Bedingungen führen zur Entstehung von Good Governance?“. Im Zentrum der vorliegenden Studie steht, wie aus der erkenntnisleitenden Fragestellung hervorgeht, eine empirische Untersuchung zur Entstehung von Good Governance und damit ein Transformationsprozess. Dieser wird bewusst über einen sehr langen Zeitraum (über ein halbes Jahrhundert) untersucht, um auch langfristige Entwicklungen einbeziehen zu können. Die Studie wird mit Hilfe eines „Mixed-Methods-Ansatzes“ sowohl unter Rückgriff auf quantitative als auch auf qualitative Methoden durchgeführt, was sich im Rückblick als sehr ertragreich erwiesen hat. Zunächst wird die Qualität der Governance über den gesamten Zeitraum anhand von sechs Indikatoren gemessen. Danach werden qualitativ die Gründe für die Fort- und Rückschritte analysiert. Dabei lassen sich immer wieder Systematiken herausarbeiten, wie zum Beispiel zirkuläre Entwicklungen, die über viele Jahre den Weg hin zu Good Governance verhinderten, bis jeweils Ausbrüche aus den Kreisläufen geschafft werden konnten. Sowohl in der demokratischen und rechtsstaatlichen Entwicklung als auch bezogen auf die Versorgung der Bevölkerung mit öffentlichen Gütern und die wirtschaftliche Entwicklung. Auch wenn die verschiedenen Bereiche von Good Governance zunächst einzeln untersucht werden, so zeigen sich gleichzeitig deutlich die Wechselwirkungen der Komponenten. Zum Beispiel kristallisiert sich klar heraus, dass Rechtsstaatlichkeit sowohl auf die Stabilität politischer Systeme wirkt, als auch auf die wirtschaftliche Entwicklung. Ebenso beeinflussen diese wiederum die Korruption. Ähnliche Verknüpfungen lassen sich auch bei allen anderen Bereichen nachvollziehen. Die Entwicklung eines Landes kann also nur unter Berücksichtigung eines komplexen Governance-Systems verstanden und erklärt werden. Dabei können die Wechselwirkungen entweder konstruktiv oder destruktiv sein. Die Verflechtungen der einzelnen Bereiche werden in einem Negativ- und dann in einem Positiv-Szenario festgehalten. Diese Idealtypen-Bildung spitzt die Erkenntnisse der vorliegenden Arbeit zu und dient dem analytischen Verständnis der untersuchten Prozesse. Die Untersuchung zeigt, wie Good Governance über das Zusammenspiel verschiedener Faktoren entstehen kann und dass es wissenschaftlich sehr ertragreich ist, Transformationsforschung auf ein komplexes Governance-System auszuweiten. Hierbei werden die vielen empirisch erarbeiteten Ergebnisse zu den einzelnen Transformationen zu komplexen, in sich greifenden Gesamtszenarien zusammengeführt. Da es bisher keine explizite Good Governance-Transformationsforschung gab, wurde hiermit ein erster Schritt in diese Richtung getan. Es wird darüber hinaus deutlich, dass eine Transformation zu Good Governance nicht durch eine kurzfristige Veränderung der Rahmenbedingungen zu erreichen ist. Es geht um kulturelle Veränderungen, um Lernprozesse, um langfristige Entwicklungen, die in der Studie am Beispiel Ghana analysiert werden. In vielen vorangegangenen Transformationsstudien wurde diese zeitliche Komponente vernachlässigt. Ghana hat bereits viele Schritte getan, um einen Weg in die Zukunft und zu Good Governance zu finden. Die Untersuchung dieser Schritte ist Kern der vorliegenden Arbeit. Der Weg Ghanas ist jedoch noch nicht abgeschlossen.
This thesis is concerned with the development of numerical methods using finite difference techniques for the discretization of initial value problems (IVPs) and initial boundary value problems (IBVPs) of certain hyperbolic systems which are first order in time and second order in space. This type of system appears in some formulations of Einstein equations, such as ADM, BSSN, NOR, and the generalized harmonic formulation. For IVP, the stability method proposed in [14] is extended from second and fourth order centered schemes, to 2n-order accuracy, including also the case when some first order derivatives are approximated with off-centered finite difference operators (FDO) and dissipation is added to the right-hand sides of the equations. For the model problem of the wave equation, special attention is paid to the analysis of Courant limits and numerical speeds. Although off-centered FDOs have larger truncation errors than centered FDOs, it is shown that in certain situations, off-centering by just one point can be beneficial for the overall accuracy of the numerical scheme. The wave equation is also analyzed in respect to its initial boundary value problem. All three types of boundaries - outflow, inflow and completely inflow that can appear in this case, are investigated. Using the ghost-point method, 2n-accurate (n = 1, 4) numerical prescriptions are prescribed for each type of boundary. The inflow boundary is also approached using the SAT-SBP method. In the end of the thesis, a 1-D variant of BSSN formulation is derived and some of its IBVPs are considered. The boundary procedures, based on the ghost-point method, are intended to preserve the interior 2n-accuracy. Numerical tests show that this is the case if sufficient dissipation is added to the rhs of the equations.
Südafrika und die Fußball-WM
(2010)
Quid novi ex Africa? Diese Fußball-Weltmeisterschaft hat das Potenzial, am negativen Image des Kontinents zu rütteln. Wenn am 11. Juni das erste Spiel beginnt, sollte dies auch für uns Anstoß sein, über Afrika und dessen Platz in der Welt von heute nachzudenken. Auf dem Streitplatz diskutieren wir die Interessen Deutschlands. Weiterhin wird in diesem Heft die Shanghai-Gruppe analysiert, über den Kopenhagener Klimagipfel als Präzedenzfall für die künftige Weltpolitik nachgedacht und die ultimative Frage "Wer regiert die Welt?" beantwortet.
Wer regiert die Welt?
(2010)
Das Ende des Nachkriegssystems der multilateralen Finanzorganisationen ist keines im eigentlichen Sinn des Wortes. Aber die Veränderungen im internationalen System sind evident und beschränken sich nicht auf Weltbank und Währungsfonds. Die entscheidende Verschiebung des globalen Machtgefüges findet außerhalb des multilateralen Systems der UNO statt. Es sind informelle Gruppen, die Gs in verschiedener Stärke: G-7/8 als westliches Auslaufmodell, der Newcomer G-20 und wenn Europa nicht aufpasst die G-2: Chinamerica.
Menetekel
(2010)
Die Verfasstheit der Europäischen Union nähert sich der Staatlichkeit an: Der Euro ist Ausdruck dessen, dass die Währungshoheit der beteiligten Staaten in Brüssel abgegeben ist; die Militäreinsätze der EU, darunter in Kosovo, Kongo, Tschad und vor der somalischen Küste, zeugen vom Ausbau einer eigenständigen Kriegführungsfähigkeit, die im Vertrag von Lissabon auch völkerrechtlich fixiert ist; die Ernennung von Lady Ashton zur EU-Außenbeauftragten und die Schaffung eines eigenen außenpolitischen Dienstes weisen darauf hin, dass auch das Recht der Außenvertretung schrittweise auf die Unionsebene übergeht.
Dass die Textlinguistik nicht umhin kommt, ihre Beschreibungen und ihr Instrumentarium auch im Hinblick auf Texte zu überprüfen, die nicht von Muttersprachlern erzeugt worden sind, ist durch die wachsenden Bedürfnisse nach fremdsprachiger Kommunikation und die rapide steigende Zahl entsprechender kommunikativer Ereignisse bedingt. Der Fokus der vorliegenden Publikation liegt auf dem fremdsprachigen Text (vorzugsweise in seiner schriftlichen, monologischen Ausprägung) als sprachlicher Größe liegen. Bei der Analyse fremdsprachiger Texte werden neben textlinguistischen Fragen aber auch andere Gesichtspunkte berücksichtigt: soziolinguistische Aspekte, z.B. in Bezug auf die Kommunikationspartner, die kommunikativen Domänen, den sozial-historischen Rahmen der Kommunikation usw., psycholinguistische Hintergründe, z.B. im Hinblick auf die kognitive Verarbeitung fremdsprachlich-kommunikativer Anforderungen, literaturwissenschaftliche Bezüge, etwa hinsichtlich fremdsprachiger Einflüsse auf literarische Werke und ihre Rolle im literarischen Diskurs, translationswissenschaftliche Gesichtspunkte im Hinblick auf die Adaptation und Bewahrung des Fremden im übersetzten Text sowie pädagogisch-didaktische Fragen im Rahmen des gesteuerten Fremdsprachenerwerbs.
The origin and evolution of granites has been widely studied because granitoid rocks constitute a major portion of the Earth ́s crust. The formation of granitic magma is, besides temperature mainly triggered by the water content of these rocks. The presence of water in magmas plays an important role due to the ability of aqueous fluids to change the chemical composition of the magma. The exsolution of aqueous fluids from melts is closely linked to a fractionation of elements between the two phases. Then, aqueous fluids migrate to shallower parts of the Earth ́s crust because of it ́s lower density compared to that of melts and adjacent rocks. This process separates fluids and melts, and furthermore, during the ascent, aqueous fluids can react with the adjacent rocks and alter their chemical signature. This is particularly impor- tant during the formation of magmatic-hydrothermal ore deposits or in the late stages of the evolution of magmatic complexes. For a deeper insight to these processes, it is essential to improve our knowledge on element behavior in such systems. In particular, trace elements are used for these studies and petrogenetic interpretations because, unlike major elements, they are not essential for the stability of the phases involved and often reflect magmatic processes with less ambiguity. However, for the majority of important trace elements, the dependence of the geochemical behavior on temperature, pressure, and in particular on the composition of the system are only incompletely or not at all experimentally studied. Former studies often fo- cus on the determination of fluid−melt partition coefficients (Df/m=cfluid/cmelt) of economically interesting elements, e.g., Mo, Sn, Cu, and there are some partitioning data available for ele- ments that are also commonly used for petrological interpretations. At present, no systematic experimental data on trace element behavior in fluid−melt systems as function of pressure, temperature, and chemical composition are available. Additionally, almost all existing data are based on the analysis of quenched phases. This results in substantial uncertainties, particularly for the quenched aqueous fluid because trace element concentrations may change upon cooling. The objective of this PhD thesis consisted in the study of fluid−melt partition coefficients between aqueous solutions and granitic melts for different trace elements (Rb, Sr, Ba, La, Y, and Yb) as a function of temperature, pressure, salinity of the fluid, composition of the melt, and experimental and analytical approach. The latter included the refinement of an existing method to measure trace element concentrations in fluids equilibrated with silicate melts di- rectly at elevated pressures and temperatures using a hydrothermal diamond-anvil cell and synchrotron radiation X-ray fluorescence microanalysis. The application of this in-situ method enables to avoid the main source of error in data from quench experiments, i.e., trace element concentration in the fluid. A comparison of the in-situ results to data of conventional quench experiments allows a critical evaluation of quench data from this study and literature data. In detail, starting materials consisted of a suite of trace element doped haplogranitic glasses with ASI varying between 0.8 and 1.4 and H2O or a chloridic solution with m NaCl/KCl=1 and different salinities (1.16 to 3.56 m (NaCl+KCl)). Experiments were performed at 750 to 950◦C and 0.2 or 0.5 GPa using conventional quench devices (externally and internally heated pressure vessels) with different quench rates, and at 750◦C and 0.2 to 1.4 GPa with in-situ analysis of the trace element concentration in the fluids. The fluid−melt partitioning data of all studied trace elements show 1. a preference for the melt (Df/m < 1) at all studied conditions, 2. one to two orders of magnitude higher Df/m using chloridic solutions compared to experiments with H2O, 3. a clear dependence on the melt composition for fluid−melt partitioning of Sr, Ba, La, Y, and Yb in experiments using chloridic solutions, 4. quench rate−related differences of fluid−melt partition coefficients of Rb and Sr, and 5. distinctly higher fluid−melt partitioning data obtained from in-situ experiments than from comparable quench runs, particularly in the case of H2O as starting solution. The data point to a preference of all studied trace elements for the melt even at fairly high salinities, which contrasts with other experimental studies, but is supported by data from studies of natural co-genetically trapped fluid and melt inclusions. The in-situ measurements of trace element concentrations in the fluid verify that aqueous fluids will change their composition upon cooling, which is in particular important for Cl free systems. The distinct differences of the in-situ results to quench data of this study as well as to data from the literature signify the im- portance of a careful fluid sampling and analysis. Therefore, the direct measurement of trace element contents in fluids equilibrated with silicate melts at elevated PT conditions represents an important development to obtain more reliable fluid−melt partition coefficients. For further improvement, both the aqueous fluid and the silicate melt need to be analyzed in-situ because partitioning data that are based on the direct measurement of the trace element content in the fluid and analysis of a quenched melt are still not completely free of quench effects. At present, all available data on element complexation in aqueous fluids in equilibrium with silicate melts at high PT are indirectly derived from partitioning data, which involves in these experiments assumptions on the species present in the fluid. However, the activities of chemical components in these partitioning experiments are not well constrained, which is required for the definition of exchange equilibria between melt and fluid species. For example, the melt-dependent variation of partition coefficient observed for Sr imply that this element can not only be complexed by Cl− as suggested previously. The data indicate a more complicated complexation of Sr in the aqueous fluid. To verify this hypothesis, the in-situ setup was also used to determine strontium complexation in fluids equilibrated with silicate melts at desired PT conditions by the application of X-ray absorption near edge structure (XANES) spectroscopy. First results show a strong effect of both fluid and melt composition on the resulting XANES spectra, which indicates different complexation environments for Sr.
In der Handreichung geben Experten (Wissenschaftler und Praktiker) theoretische Orientierungen und praktische Anregungen und Hinweise zur Umwelterziehung und Erziehung zur Naturverbundenheit innerhalb und außerhalb von Schule. Einen Schwerpunkt bilden hierbei der Schulgarten und Schulgartenunterricht. Weitere Themen sind Lernen mit allen Sinnen, Erfahrungen im Grünen Klassenzimmer, praktische Umweltprojekte und Naturerziehung konkret, Nutzung moderner Medien in der Umweltbildung u.a. Adressaten der Handreichung sind Förderer, Träger, Betreiber und Nutzer schulischer und außerschulischer Umweltbildungseinrichtungen und des Schulgartens sowie auf dem Gebiet arbeitende und forschende Wissenschaftler. Insbesondere richtet sich die Handreichung an im Schulgarten tätige Lehrerinnen und Lehrer, denen Möglichkeiten aufgezeigt werden sollen, wie die nicht explizit in der Stundentafel der Schule verankerte Arbeit im Schulgarten zu einem festen Bestandteil pädagogischer Bemühungen um die Umwelterziehung (auch über Schulgrenzen hinaus) gemacht und der Schulgartenbewegung neue Impulse verliehen werden kann.
Fiscal federalism has been an important topic among public finance theorists in the last four decades. There is a series of arguments that decentralization of governments enhances growth by improving allocation efficiency. However, the empirical studies have shown mixed results for industrialized and developing countries and some of them have demonstrated that there might be a threshold level of economic development below which decentralization is not effective. Developing and transition countries have developed a variety of forms of fiscal decentralization as a possible strategy to achieve effective and efficient governmental structures. A generalized principle of decentralization due to the country specific circumstances does not exist. Therefore, decentralization has taken place in different forms in various countries at different times, and even exactly the same extent of decentralization may have had different impacts under different conditions. The purpose of this study is to investigate the current state of the fiscal decentralization in Mongolia and to develop policy recommendations for the efficient and effective intergovernmental fiscal relations system for Mongolia. Within this perspective the analysis concentrates on the scope and structure of the public sector, the expenditure and revenue assignment as well as on the design of the intergovernmental transfer and sub-national borrowing. The study is based on data for twenty-one provinces and the capital city of Mongolia for the period from 2000 to 2009. As a former socialist country Mongolia has had a highly centralized governmental sector. The result of the analysis below revealed that the Mongolia has introduced a number of decentralization measures, which followed a top down approach and were slowly implemented without any integrated decentralization strategy in the last decade. As a result Mongolia became de-concentrated state with fiscal centralization. The revenue assignment is lacking a very important element, for instance significant revenue autonomy given to sub-national governments, which is vital for the efficient service delivery at the local level. According to the current assignments of the expenditure and revenue responsibilities most of the provinces are unable to provide a certain national standard of public goods supply. Hence, intergovernmental transfers from the central jurisdiction to the sub-national jurisdictions play an important role for the equalization of the vertical and horizontal imbalances in Mongolia. The critical problem associated with intergovernmental transfers is that there is not a stable, predictable and transparent system of transfer allocation. The amount of transfers to sub-national governments is determined largely by political decisions on ad hoc basis and disregards local differences in needs and fiscal capacity. Thus a fiscal equalization system based on the fiscal needs of the provinces should be implemented. The equalization transfers will at least partly offset the regional disparities in revenues and enable the sub-national governments to provide a national minimum standard of local public goods.
This paper studies the persistence of daily returns of 21 German stocks from 1960 to 2008. We apply a widely used test based upon the modified R/S-Method by Lo [1991]. As an extension to Lux [1996] and Carbone et al. [2004] and in analogy to moving average or moving volatility, the statistics is calculated for moving windows of length 4, 8, and 16 years for every time series. Periods of persistence or long memory in returns can be found in some but not all time series. Robustness of results is verified by investigating stationarity and short memory effects.
Wie kaum eine andere soziale Bewegung der letzten 25 Jahre erfuhren die Zapatisten eine weltweite, breite Rezeption. Von der medialen Präsenz der 1990er Jahre ist jedoch nicht viel übrig geblieben. Um die mexikanischen Guerillas ist es ruhig geworden. Wurden die Zapatistas vom Zeitgeist überholt? Verloren ihre postneoliberalen Ansätze durch den Wandel der Bewegung an Attraktivität? Das Papier geht den Ursprüngen der indigenen Aufstandsbewegung und deren Paradigmenwechsel nach und zeigt auf, wie trotz des neu eingeschlagenen Weges der antisystemische und antietatistische Charakter der Bewegung beibehalten wurde.
Für den internationalen Vergleich von Gesellschaften wird ein System gesellschaftlicher Dauerbeobachtung vorgeschlagen, indem aufgrund einer Auseinandersetzung mit der sozialphilosophischen Diskussion acht Performanzkriterien für den internationalen Vergleich von Lebensbedingungen entwickelt werden: Wohlstand und Wachstum; ökologische Nachhaltigkeit; Innovation; soziale Sicherung durch Unterstützungsleistungen im Risikofall sowie vorsorgend durch Bildungsinvestitionen; Anerkennung der Besonderheiten (Frauenfreundlichkeit und Migrantenfreundlichkeit); Gleichheit der Teilhabe; soziale Integration; Autonomie („freedom of choice and capabilities”). In unserem Ansatz gehen wir nicht von einem einheitlichen Pfad der Modernisierung in Richtung Wachstum, Partizipation und Inklusion aus, sondern unterscheiden in Erweiterung der „drei Welten des Wohlfahrtskapitalismus“ von Esping-Andersen (mindestens) fünf verschiedene institutionelle Entwicklungspfade der Modernisierung: Der sozialdemokratisch-universalistische Pfad, der wirtschaftsliberale Pfad, der Status-konservierende Pfad, der „familistische“ Pfad und die Entwicklung der Gruppe der ex-sozialistischen Länder, die sich in einem Prozess der Ausdifferenzierung befinden. Ab der 3. Auflage werden nun 36 Länder verglichen (incl. aller EU-Mitglieder) statt wie zuvor 28 Länder, in der 6. Auflage auf dem Stand von März 2010. Zur Analyse der Sozialstrukturen werden als Modelle sozialer Lagen berücksichtigt: Marx, Weber, Roemer/Wright; soziale Schichten, berufliche Lagen, Goldthorpe-Modell; Bourdieu, Vester, Hradil. Als Anwendungsbereiche werden behandelt: Dienstleistungsgesellschaften und Erwerbstätigkeit, Bildung; Wohlfahrtsregime und soziale Sicherung; Wohlstand, Einkommen, Vermögen und Armut; soziale Mobilität; soziale Ungleichheiten zwischen Frauen und Männern; Bevölkerungsstruktur und Lebensformen; Lebensstile; Individualisierung und ihre Gegenbewegungen; zusammenfassender Vergleich von Lebensbedingungen in verschiedenen Ländern und Wohlfahrtsregimen.
Data obtained from foreign data sources often come with only superficial structural information, such as relation names and attribute names. Other types of metadata that are important for effective integration and meaningful querying of such data sets are missing. In particular, relationships among attributes, such as foreign keys, are crucial metadata for understanding the structure of an unknown database. The discovery of such relationships is difficult, because in principle for each pair of attributes in the database each pair of data values must be compared. A precondition for a foreign key is an inclusion dependency (IND) between the key and the foreign key attributes. We present with Spider an algorithm that efficiently finds all INDs in a given relational database. It leverages the sorting facilities of DBMS but performs the actual comparisons outside of the database to save computation. Spider analyzes very large databases up to an order of magnitude faster than previous approaches. We also evaluate in detail the effectiveness of several heuristics to reduce the number of necessary comparisons. Furthermore, we generalize Spider to find composite INDs covering multiple attributes, and partial INDs, which are true INDs for all but a certain number of values. This last type is particularly relevant when integrating dirty data as is often the case in the life sciences domain - our driving motivation.
Die Umsetzung theoretisch fundierter Besteuerungsprinzipien in die Praxis hat seit längerer Zeit einen prominenten Platz in der finanzwissenschaftlichen Forschung. Dabei besteht kein Zweifel, dass es ein größeres Interesse daran gibt, nicht nur theoretisch fundierte Prinzipien abzuleiten, sondern diese auch auf ihre Anwendbarkeit zu prüfen. Dieses Interesse an der optimalen Ausgestaltung eines Steuersystems in der Praxis wurde mit dem Zusammenbruch der sozialistischen Planwirtschaften in den 1990er Jahren nochmals verstärkt. Im Rahmen dieser umfassenden Transformationsprozesse ist es unabdingbar, dass die Wirtschaftsentwicklung über ein leistungsfähiges Steuersystem finanziert wird. Die zu erhebenden Steuern haben einen unmittelbaren Einfluss auf die ökonomischen Entscheidungen wie beispielsweise in Form eines Konsumverzichts. Darüber hinaus entstehen Zusatzlasten der Besteuerung (excess burden), wenn vergleichbare ökonomische Aktivitäten unterschiedlich besteuert werden und damit etwa der Konsum bestimmter Güter, eine bestimmte Investitionsart oder der Einsatz eines bestimmten Produktionsfaktors diskriminiert wird. Aus den Substitutionseffekten, die durch die Veränderungen der relativen Preise hervorgerufen werden, resultieren letztendlich über die Zahllast hinausgehende Nutzenverluste bei den Wirtschaftssubjekten. Dadurch werden die ökonomischen Konsum-/Sparentscheidungen verzerrt (Besteuerung der Kapitaleinkommen), das Leistungsangebot vermindert (Besteuerung der Arbeitseinkommen), Produktionsfaktoren umgelenkt oder Investitions- und Finanzierungsentscheidungen verzerrt (Unternehmenssteuer). Somit kann durch Steuern bzw. durch ihre unangemessene Ausgestaltung ein gesamtwirtschaftlicher Effizienzverlust verursacht werden. Gerade in Transformationsländern wie Georgien war mit Beginn der Transformationsphase de facto kein steuerpolitisches Know-how vorhanden, so dass eine enorme Nachfrage nach Beratung bestand und letztendlich der größte Teil der verabschiedeten Steuerreformen ein Ergebnis externer Beratung war. Ein erstes Ziel der Arbeit ist die Erstellung einer theoretischen Basis, um die einzelnen Steuerreformphasen besser zu verstehen. Ein zweites Ziel liegt in die Ableitung eines theoretisch fundierten Referenzrahmens (Benchmark) für die Beurteilung des Status quo sowie der Ausgestaltung der Einkommens- und Gewinnbesteuerung in Georgien. Die Ableitung von Benchmarks gilt dabei als ein eigenständiges Ziel wissenschaftlicher Forschung. Im Rahmen dieser Arbeit dienen die Benchmarks jedoch als Beurteilungsmaßstab für die Evaluation der Steuerreformen in Georgien sowie für die Evaluation des hier erarbeiteten konkreten Reformvorschlags. Ein drittes Ziel der vorliegenden Arbeit ist also in der konzeptionellen Ausgestaltung der Einkommens- und Gewinnbesteuerung in Georgien und deren konsequenten Ausrichtung an einem international anerkannten lebenszeitlichen bzw. konsumorientierten Leitbild der Besteuerung zu sehen. Im Rahmen dieser Arbeit wurde ein Entwurf für eine integrierte Einkommens- und Gewinnsteuer (Einfachsteuer) entwickelt, der den lokalen gesellschaftlichen Gegebenheiten optimal angepasst ist. Bei der Ausarbeitung eines entsprechenden Konzeptes für Georgien war zu berücksichtigen, dass die Effizienz reduzierenden Allokationsverzerrungen in diesen Systemen minimiert und die Belastung der Löhne und Gewinne durch Steuern auf ein angemessenes Niveau begrenzt werden sollten, um negative Anreizwirkungen in Bezug auf das Wirtschaftswachstum so gering wie möglich zu halten. Neben einer integrierten Einkommens- und Gewinnbesteuerung spielten dabei eine einheitliche Gewinnermittlung für Unternehmen (modifiziertes Kassenprinzip) sowie eine am Kassenprinzip orientierte Mehrwertsteuer eine besondere Rolle. Einkommen- und Mehrwertsteuerentwürfe erfüllen alle Neutralitätskriterien (Neutralität der intertemporalen Konsum- und Ersparnisbildung, Rechtsformneutralität, Investitionsneutralität in Bezug auf Human- und Sachkapital, Finanzierungsneutralität sowie Inflationsneutralität). Nach der Definition der Bemessungsgrundlagen für die Einzelsteuern und deren Anpassung an georgische Gegebenheiten war es notwendig, die technischen Einzelheiten für die Steuerverwaltung (Durchführungsverordnungen) und teilweise die zugehörigen Steuerformulare zu entwickeln. Diese müssen alle notwendigen Variablen der Veranlagungsverfahren erfassen und eindeutige Identifikationsmöglichkeiten für die Haushalte und Unternehmen bieten, was eine wichtige Rolle für die spätere Mikrosimulation spielt. Die gewonnenen Erkenntnisse dieser Arbeit sollen die politischen Entscheidungsträger bei der Auswahl eines geeigneten Reformvorschlages für das Einkommensteuergesetz unterstützen.
Die europäische Dienstleistungsrichtlinie (Richtlinie 2006/123/EG des Europäischen Parlaments und des Rates vom 12. Dezember 2006 über Dienstleistungen im Binnenmarkt), die bis zum 28. Dezember 2009 in innerstaatliches Recht umgesetzt werden musste, stellt die Kommunen vor enorme rechtliche, verwaltungsorganisatorische und technische Herausforderungen. Zwei zentrale Anliegen der Richtlinie sind die Verpflichtung zur Einrichtung eines Einheitlichen Ansprechpartners, über den im Anwendungsbereich der Richtlinie sämtliche erforderlichen Verfahren und Formalitäten abgewickelt werden können, sowie die Gewährleistung einer elektronischen Verfahrensabwicklung. Die Entscheidung über die konkrete verwaltungsorganisatorische Verortung des Einheitlichen Ansprechpartners ist von den Bundesländern zu treffen, die dabei durchaus unterschiedliche Wege gehen. Der vorliegende Tagungsband der 15. Jahrestagung des Kommunalwissenschaftlichen Institutes (KWI) der Universität Potsdam thematisierte die Instrumente der Dienstleistungsrichtlinie, diskutierte Strategien der Umsetzung und regte damit zu einem Erfahrungsaustausch zwischen Wissenschaft und Praxis an.
Calibration of the global hydrological model WGHM with water mass variations from GRACE gravity data
(2010)
Since the start-up of the GRACE (Gravity Recovery And Climate Experiment) mission in 2002 time dependent global maps of the Earth's gravity field are available to study geophysical and climatologically-driven mass redistributions on the Earth's surface. In particular, GRACE observations of total water storage changes (TWSV) provide a comprehensive data set for analysing the water cycle on large scales. Therefore they are invaluable for validation and calibration of large-scale hydrological models as the WaterGAP Global Hydrology Model (WGHM) which simulates the continental water cycle including its most important components, such as soil, snow, canopy, surface- and groundwater. Hitherto, WGHM exhibits significant differences to GRACE, especially for the seasonal amplitude of TWSV. The need for a validation of hydrological models is further highlighted by large differences between several global models, e.g. WGHM, the Global Land Data Assimilation System (GLDAS) and the Land Dynamics model (LaD). For this purpose, GRACE links geodetic and hydrological research aspects. This link demands the development of adequate data integration methods on both sides, forming the main objectives of this work. They include the derivation of accurate GRACE-based water storage changes, the development of strategies to integrate GRACE data into a global hydrological model as well as a calibration method, followed by the re-calibration of WGHM in order to analyse process and model responses. To achieve these aims, GRACE filter tools for the derivation of regionally averaged TWSV were evaluated for specific river basins. Here, a decorrelation filter using GRACE orbits for its design is most efficient among the tested methods. Consistency in data and equal spatial resolution between observed and simulated TWSV were realised by the inclusion of all most important hydrological processes and an equal filtering of both data sets. Appropriate calibration parameters were derived by a WGHM sensitivity analysis against TWSV. Finally, a multi-objective calibration framework was developed to constrain model predictions by both river discharge and GRACE TWSV, realised with a respective evolutionary method, the ε-Non-dominated-Sorting-Genetic-Algorithm-II (ε-NSGAII). Model calibration was done for the 28 largest river basins worldwide and for most of them improved simulation results were achieved with regard to both objectives. From the multi-objective approach more reliable and consistent simulations of TWSV within the continental water cycle were gained and possible model structure errors or mis-modelled processes for specific river basins detected. For tropical regions as such, the seasonal amplitude of water mass variations has increased. The findings lead to an improved understanding of hydrological processes and their representation in the global model. Finally, the robustness of the results is analysed with respect to GRACE and runoff measurement errors. As a main conclusion obtained from the results, not only soil water and snow storage but also groundwater and surface water storage have to be included in the comparison of the modelled and GRACE-derived total water budged data. Regarding model calibration, the regional varying distribution of parameter sensitivity suggests to tune only parameter of important processes within each region. Furthermore, observations of single storage components beside runoff are necessary to improve signal amplitudes and timing of simulated TWSV as well as to evaluate them with higher accuracy. The results of this work highlight the valuable nature of GRACE data when merged into large-scale hydrological modelling and depict methods to improve large-scale hydrological models.
Coupling of the electrical, mechanical and optical response in polymer/liquid-crystal composites
(2010)
Micrometer-sized liquid-crystal (LC) droplets embedded in a polymer matrix may enable optical switching in the composite film through the alignment of the LC director along an external electric field. When a ferroelectric material is used as host polymer, the electric field generated by the piezoelectric effect can orient the director of the LC under an applied mechanical stress, making these materials interesting candidates for piezo-optical devices. In this work, polymer-dispersed liquid crystals (PDLCs) are prepared from poly(vinylidene fluoride-trifluoroethylene) (P(VDF-TrFE)) and a nematic liquid crystal (LC). The anchoring effect is studied by means of dielectric relaxation spectroscopy. Two dispersion regions are observed in the dielectric spectra of the pure P(VDF-TrFE) film. They are related to the glass transition and to a charge-carrier relaxation, respectively. In PDLC films containing 10 and 60 wt% LC, an additional, bias-field-dependent relaxation peak is found that can be attributed to the motion of LC molecules. Due to the anchoring effect of the LC molecules, this relaxation process is slowed down considerably, when compared with the related process in the pure LC. The electro-optical and piezo-optical behavior of PDLC films containing 10 and 60 wt% LCs is investigated. In addition to the refractive-index mismatch between the polymer matrix and the LC molecules, the interaction between the polymer dipoles and the LC molecules at the droplet interface influences the light-scattering behavior of the PDLC films. For the first time, it was shown that the electric field generated by the application of a mechanical stress may lead to changes in the transmittance of a PDLC film. Such a piezo-optical PDLC material may be useful e.g. in sensing and visualization applications. Compared to a non-polar matrix polymer, the polar matrix polymer exhibits a strong interaction with the LC molecules at the polymer/LC interface which affects the electro-optical effect of the PDLC films and prevents a larger increase in optical transmission.
Mit dem Amtsantritt Barack Obamas wurden nach Jahren schwelender Kriegsgefahr mit dem Iran große Hoffnungen verbunden. Das Papier analysiert die der US-Regierung vorgelegten Iran-Strategiepapiere im Hinblick auf eine Lösung im Iran-Konflikt. Das Spektrum der angedachten Politik reicht von Scheindiplomatie zur Kriegslegitimation bis hin zu selektiver Annäherung. Zum Schluss wird der Frage nachgegangen, inwieweit tatsächlich eine Wende in der Iran-Politik Obamas zu erwarten ist.
This thesis presents methods for automated synthesis of flexible chip multiprocessor systems from parallel programs targeted at FPGAs to exploit both task-level parallelism and architecture customization. Automated synthesis is necessitated by the complexity of the design space. A detailed description of the design space is provided in order to determine which parameters should be modeled to facilitate automated synthesis by optimizing a cost function, the emphasis being placed on inclusive modeling of parameters from application, architectural and physical subspaces, as well as their joint coverage in order to avoid pre-constraining the design space. Given a parallel program and a set of an IP library, the automated synthesis problem is to simultaneously (i) select processors (ii) map and schedule tasks to them, and (iii) select one or several networks for inter-task communications such that design constraints and optimization objectives are met. The research objective in this thesis is to find a suitable model for automated synthesis, and to evaluate methods of using the model for architectural optimizations. Our contributions are a holistic approach for the design of such systems, corresponding models to facilitate automated synthesis, evaluation of optimization methods using state of the art integer linear and answer set programming, as well as the development of synthesis heuristics to solve runtime challenges.
Außenpolitik ist von den Werten, dem Selbstverständnis einer Gesellschaft und den ökonomischen Interessen ihrer Volkswirtschaft geprägt. In den ersten beiden Teilen dieses Essays zeigen wir auf, wie Deutschland seine Werte behutsam erneuern sollte und welche Bereiche zur Wahrung seines ökonomischen Wohlstands zentral sind. Auf dieses Fundament setzen wir ein Plädoyer für eine neue außenpolitische Kultur, die Interessen offen debattiert und klar definiert, um sie erfolgreich durchzusetzen.
Reif für die Weltpolitik?
(2010)
Bereits vor zehn Jahren diskutierten wir über die außenpolitische Reife deutscher Eliten. Das Ergebnis war widersprüchlich, kritisch ernüchternd. Gegenwärtig, 20 Jahre nach der deutschen Einheit, ist es an der Zeit, erneut nachzufragen. Die Welt- und Europapolitik sind im Fieber. Die neokonservative Marktwirtschaft – bis vor Kurzem noch siegessicher – erodiert. Die westliche Welt steckt am Beginn des 21. Jahrhunderts in einer Systemkrise. Hektische Gipfel jagen einander, von Kopenhagen über London und Davos bis nach München. Da ist die Frage erlaubt: Wie steht es in solch turbulenten Zeiten eigentlich um die deutsche Außenpolitik?
Tolerierter Schmuggel
(2010)
Grenzen sind soziale Tatsachen, die sich räumlich manifestieren – etwa wenn Schmuggler und Grenzschützer an Grenzübergängen aufeinandertreffen und in ritualisierter Form Bedingungen und Möglichkeiten des Grenzübertritts aushandeln. Das Grenzgeschehen wird in diesem Beitrag in soziologisch-ethnologischer Perspektive am Beispiel des Kaliningrader Grenzgebiets betrachtet.
Selektive Grenzen
(2010)
Die Grenze - historisches Auslaufmodell? Moralische Zumutung? Unabdingbare Tatsache? Meist ist sie eine Art Limes: Durchlässig für den Austausch bestimmter Waren und Personen, zugleich Schutz gegen das Eindringen unerwünschter Fremder. Vielfach erklärtes Ziel ist ein "grenzenloses Europa". Im Innern der EU sind Schlagbäume verschwunden, an den Rändern wird vielerorts abgeschottet. Die Grenzsortierungen der EU sind Thema der aktuellen WeltTrends. Afghanistan und kein Ende? Die Londoner Konferenz verspricht trotz "neuer Strategie" keinen erfolgreichen Neuanfang. "Es wird zunächst schlimmer", so ein hoher deutscher Militär. Alternativen müssen diskutiert werden: WeltTrends bietet den Raum.
Die Analyse vergleicht Installationen von Bruce Nauman und Olafur Eliasson ausgehend von der Fragestellung, wie sich die künstlerischen Performativitätsstrategien der 1960er/70er Jahren und die der zeitgenössischen Kunst in ihren Wirkungen und Effekten unterscheiden lassen. Dabei werden die Positionen der beiden Künstler als paradigmatisch für eine Ästhetik des Performativen angesehen. Neben dem Vergleich der Künstler steht die theoretische Auseinandersetzung mit der Diskursfigur der Performativität sowie deren methodischen Anwendbarkeit in der Kunstwissenschaft im Vordergrund. Während sich Installationen der 1960er/70er Jahre besonders durch die psycho-physische Einwirkung auf die Sinneswahrnehmung des Betrachters auszeichnen und durchaus Schockeffekte beim Betrachter hervorrufen, befasst sich die zeitgenössische Kunstpraxis vornehmlich mit visuellen und poetischen Effekten, die eine kontemplative Rezeptionshaltung des Betrachters einfordern. Bruce Nauman war es ein Anliegen, den tradierten Status des Kunstwerks als ein zu Betrachtendes, das sich durch Begriffe wie Form, Ursprung und Originalität fassen ließ, in Frage zu stellen und stattdessen eine reale leibliche Erfahrung für den Betrachter nachvollziehbar werden zu lassen. Künstlern wie Olafur Eliasson geht es in den künstlerischen Produktionen vor allem um die Wahrnehmung der Wahrnehmung sowie der Erzeugung von Präsenzeffekten. Mit dem Aufkommen solcher Verfahren wurde deutlich, dass performative Installationen nach anderen Beschreibungsformen verlangten und, dass diese durch eine Ästhetik des Performativen gefasst werden können. Wie genau vollzieht sich der Wandel von den performativen Strategien der 1960er/70er Jahre zu denen der zeitgenössischen Installationskünstlern? Verläuft dieser vom Schock zur Poesie?
The difference-list technique is described in literature as effective method for extending lists to the right without using calls of append/3. There exist some proposals for automatic transformation of list programs into differencelist programs. However, we are interested in construction of difference-list programs by the programmer, avoiding the need of a transformation step. In [GG09] it was demonstrated, how left-recursive procedures with a dangling call of append/3 can be transformed into right-recursion using the unfolding technique. For simplification of writing difference-list programs using a new cons/2 procedure was introduced. In the present paper, we investigate how efficieny is influenced using cons/2. We measure the efficiency of procedures using accumulator technique, cons/2, DCG’s, and difference lists and compute the resulting speedup in respect to the simple procedure definition using append/3. Four Prolog systems were investigated and we found different behaviour concerning the speedup by difference lists. A result of our investigations is, that an often advice given in the literature for avoiding calls append/3 could not be confirmed in this strong formulation.
A deterministic cycle scheduling of partitions at the operating system level is supposed for a multiprocessor system. In this paper, we propose a tool for generating such schedules. We use constraint based programming and develop methods and concepts for a combined interactive and automatic partition scheduling system. This paper is also devoted to basic methods and techniques for modeling and solving this partition scheduling problem. Initial application of our partition scheduling tool has proved successful and demonstrated the suitability of the methods used.
In the most abstract definition of its operational semantics, the declarative and concurrent programming language CHR is trivially non-terminating for a significant class of programs. Common refinements of this definition, in closing the gap to real-world implementations, compromise on declarativity and/or concurrency. Building on recent work and the notion of persistent constraints, we introduce an operational semantics avoiding trivial non-termination without compromising on its essential features.
Different properties of programs, implemented in Constraint Handling Rules (CHR), have already been investigated. Proving these properties in CHR is fairly simpler than proving them in any type of imperative programming language, which triggered the proposal of a methodology to map imperative programs into equivalent CHR. The equivalence of both programs implies that if a property is satisfied for one, then it is satisfied for the other. The mapping methodology could be put to other beneficial uses. One such use is the automatic generation of global constraints, at an attempt to demonstrate the benefits of having a rule-based implementation for constraint solvers.
Deductive databases need general formulas in rule bodies, not only conjuctions of literals. This is well known since the work of Lloyd and Topor about extended logic programming. Of course, formulas must be restricted in such a way that they can be effectively evaluated in finite time, and produce only a finite number of new tuples (in each iteration of the TP-operator: the fixpoint can still be infinite). It is also necessary to respect binding restrictions of built-in predicates: many of these predicates can be executed only when certain arguments are ground. Whereas for standard logic programming rules, questions of safety, allowedness, and range-restriction are relatively easy and well understood, the situation for general formulas is a bit more complicated. We give a syntactic analysis of formulas that guarantees the necessary properties.
Abstract interpretation-based model checking provides an approach to verifying properties of infinite-state systems. In practice, most previous work on abstract model checking is either restricted to verifying universal properties, or develops special techniques for temporal logics such as modal transition systems or other dual transition systems. By contrast we apply completely standard techniques for constructing abstract interpretations to the abstraction of a CTL semantic function, without restricting the kind of properties that can be verified. Furthermore we show that this leads directly to implementation of abstract model checking algorithms for abstract domains based on constraints, making use of an SMT solver.
The interest in extensions of the logic programming paradigm beyond the class of normal logic programs is motivated by the need of an adequate representation and processing of knowledge. One of the most difficult problems in this area is to find an adequate declarative semantics for logic programs. In the present paper a general preference criterion is proposed that selects the ‘intended’ partial models of generalized logic programs which is a conservative extension of the stationary semantics for normal logic programs of [Prz91]. The presented preference criterion defines a partial model of a generalized logic program as intended if it is generated by a stationary chain. It turns out that the stationary generated models coincide with the stationary models on the class of normal logic programs. The general wellfounded semantics of such a program is defined as the set-theoretical intersection of its stationary generated models. For normal logic programs the general wellfounded semantics equals the wellfounded semantics.
We propose a paraconsistent declarative semantics of possibly inconsistent generalized logic programs which allows for arbitrary formulas in the body and in the head of a rule (i.e. does not depend on the presence of any specific connective, such as negation(-as-failure), nor on any specific syntax of rules). For consistent generalized logic programs this semantics coincides with the stable generated models introduced in [HW97], and for normal logic programs it yields the stable models in the sense of [GL88].
We present the tool Kato which is, to the best of our knowledge, the first tool for plagiarism detection that is directly tailored for answer-set programming (ASP). Kato aims at finding similarities between (segments of) logic programs to help detecting cases of plagiarism. Currently, the tool is realised for DLV programs but it is designed to handle various logic-programming syntax versions. We review basic features and the underlying methodology of the tool.
In this paper we consider a simple syntactic extension of Answer Set Programming (ASP) for dealing with (nested) existential quantifiers and double negation in the rule bodies, in a close way to the recent proposal RASPL-1. The semantics for this extension just resorts to Equilibrium Logic (or, equivalently, to the General Theory of Stable Models), which provides a logic-programming interpretation for any arbitrary theory in the syntax of Predicate Calculus. We present a translation of this syntactic class into standard logic programs with variables (either disjunctive or normal, depending on the input rule heads), as those allowed by current ASP solvers. The translation relies on the introduction of auxiliary predicates and the main result shows that it preserves strong equivalence modulo the original signature.
We introduce a simple approach extending the input language of Answer Set Programming (ASP) systems by multi-valued propositions. Our approach is implemented as a (prototypical) preprocessor translating logic programs with multi-valued propositions into logic programs with Boolean propositions only. Our translation is modular and heavily benefits from the expressive input language of ASP. The resulting approach, along with its implementation, allows for solving interesting constraint satisfaction problems in ASP, showing a good performance.
A wide range of additional forward chaining applications could be realized with deductive databases, if their rule formalism, their immediate consequence operator, and their fixpoint iteration process would be more flexible. Deductive databases normally represent knowledge using stratified Datalog programs with default negation. But many practical applications of forward chaining require an extensible set of user–defined built–in predicates. Moreover, they often need function symbols for building complex data structures, and the stratified fixpoint iteration has to be extended by aggregation operations. We present an new language Datalog*, which extends Datalog by stratified meta–predicates (including default negation), function symbols, and user–defined built–in predicates, which are implemented and evaluated top–down in Prolog. All predicates are subject to the same backtracking mechanism. The bottom–up fixpoint iteration can aggregate the derived facts after each iteration based on user–defined Prolog predicates.
We describe a framework to support the implementation of web-based systems to manipulate data stored in relational databases. Since the conceptual model of a relational database is often specified as an entity-relationship (ER) model, we propose to use the ER model to generate a complete implementation in the declarative programming language Curry. This implementation contains operations to create and manipulate entities of the data model, supports authentication, authorization, session handling, and the composition of individual operations to user processes. Furthermore and most important, the implementation ensures the consistency of the database w.r.t. the data dependencies specified in the ER model, i.e., updates initiated by the user cannot lead to an inconsistent state of the database. In order to generate a high-level declarative implementation that can be easily adapted to individual customer requirements, the framework exploits previous works on declarative database programming and web user interface construction in Curry.
In this talk, I would like to share my experiences gained from participating in four CSP solver competitions and the second ASP solver competition. In particular, I’ll talk about how various programming techniques can make huge differences in solving some of the benchmark problems used in the competitions. These techniques include global constraints, table constraints, and problem-specific propagators and labeling strategies for selecting variables and values. I’ll present these techniques with experimental results from B-Prolog and other CLP(FD) systems.
The genome can be considered the blueprint for an organism. Composed of DNA, it harbours all organism-specific instructions for the synthesis of all structural components and their associated functions. The role of carriers of actual molecular structure and functions was believed to be exclusively assumed by proteins encoded in particular segments of the genome, the genes. In the process of converting the information stored genes into functional proteins, RNA – a third major molecule class – was discovered early on to act a messenger by copying the genomic information and relaying it to the protein-synthesizing machinery. Furthermore, RNA molecules were identified to assist in the assembly of amino acids into native proteins. For a long time, these - rather passive - roles were thought to be the sole purpose of RNA. However, in recent years, new discoveries have led to a radical revision of this view. First, RNA molecules with catalytic functions - thought to be the exclusive domain of proteins - were discovered. Then, scientists realized that much more of the genomic sequence is transcribed into RNA molecules than there are proteins in cells begging the question what the function of all these molecules are. Furthermore, very short and altogether new types of RNA molecules seemingly playing a critical role in orchestrating cellular processes were discovered. Thus, RNA has become a central research topic in molecular biology, even to the extent that some researcher dub cells as “RNA machines”. This thesis aims to contribute towards our understanding of RNA-related phenomena by applying Bioinformatics means. First, we performed a genome-wide screen to identify sites at which the chemical composition of DNA (the genotype) critically influences phenotypic traits (the phenotype) of the model plant Arabidopsis thaliana. Whole genome hybridisation arrays were used and an informatics strategy developed, to identify polymorphic sites from hybridisation to genomic DNA. Following this approach, not only were genotype-phenotype associations discovered across the entire Arabidopsis genome, but also regions not currently known to encode proteins, thus representing candidate sites for novel RNA functional molecules. By statistically associating them with phenotypic traits, clues as to their particular functions were obtained. Furthermore, these candidate regions were subjected to a novel RNA-function classification prediction method developed as part of this thesis. While determining the chemical structure (the sequence) of candidate RNA molecules is relatively straightforward, the elucidation of its structure-function relationship is much more challenging. Towards this end, we devised and implemented a novel algorithmic approach to predict the structural and, thereby, functional class of RNA molecules. In this algorithm, the concept of treating RNA molecule structures as graphs was introduced. We demonstrate that this abstraction of the actual structure leads to meaningful results that may greatly assist in the characterization of novel RNA molecules. Furthermore, by using graph-theoretic properties as descriptors of structure, we indentified particular structural features of RNA molecules that may determine their function, thus providing new insights into the structure-function relationships of RNA. The method (termed Grapple) has been made available to the scientific community as a web-based service. RNA has taken centre stage in molecular biology research and novel discoveries can be expected to further solidify the central role of RNA in the origin and support of life on earth. As illustrated by this thesis, Bioinformatics methods will continue to play an essential role in these discoveries.
A constraint programming system combines two essential components: a constraint solver and a search engine. The constraint solver reasons about satisfiability of conjunctions of constraints, and the search engine controls the search for solutions by iteratively exploring a disjunctive search tree defined by the constraint program. The Monadic Constraint Programming framework gives a monadic definition of constraint programming where the solver is defined as a monad threaded through the monadic search tree. Search and search strategies can then be defined as firstclass objects that can themselves be built or extended by composable search transformers. Search transformers give a powerful and unifying approach to viewing search in constraint programming, and the resulting constraint programming system is first class and extremely flexible.
Preface
(2010)
The workshops on (constraint) logic programming (WLP) are the annual meeting of the Society of Logic Programming (GLP e.V.) and bring together researchers interested in logic programming, constraint programming, and related areas like databases, artificial intelligence and operations research. In this decade, previous workshops took place in Dresden (2008), Würzburg (2007), Vienna (2006), Ulm (2005), Potsdam (2004), Dresden (2002), Kiel (2001), and Würzburg (2000). Contributions to workshops deal with all theoretical, experimental, and application aspects of constraint programming (CP) and logic programming (LP), including foundations of constraint/ logic programming. Some of the special topics are constraint solving and optimization, extensions of functional logic programming, deductive databases, data mining, nonmonotonic reasoning, , interaction of CP/LP with other formalisms like agents, XML, JAVA, program analysis, program transformation, program verification, meta programming, parallelism and concurrency, answer set programming, implementation and software techniques (e.g., types, modularity, design patterns), applications (e.g., in production, environment, education, internet), constraint/logic programming for semantic web systems and applications, reasoning on the semantic web, data modelling for the web, semistructured data, and web query languages.
The workshops on (constraint) logic programming (WLP) are the annual meeting of the Society of Logic Programming (GLP e.V.) and bring together researchers interested in logic programming, constraint programming, and related areas like databases, artificial intelligence and operations research. The 23rd WLP was held in Potsdam at September 15 – 16, 2009. The topics of the presentations of WLP2009 were grouped into the major areas: Databases, Answer Set Programming, Theory and Practice of Logic Programming as well as Constraints and Constraint Handling Rules.
Die vorliegende Untersuchung zeigt das ständige Wachstum der Dimension und Bedeutung der staatlichen Schutzpflichten als eine eigenständige Funktion der Grundrechte. Mit jedem Fortschritt und der Entwicklung in der modernen Welt, entstehen in der Gesellschaft immer wieder neue Bereiche, die gesetzlicher Regulierung bedürfen. Daher ist die staatliche Aufgabe eindeutig: Der Staat muss die in der Verfassung ausgelegten Prinzipien in der Realität durch die Gesetze umsetzen und sie ständig wiederkehrend nachbessern. Daher ist der Staat gefordert, die Einzelnen repressiv und präventiv zu schützen. Die Dissertation untersucht die Problematik von staatlichen Schutzpflichten im Rahmen der Grundrechte der georgischen Verfassung vom 24. August 1995 im Vergleich mit den Menschenrechten und Grundfreiheiten der Europäischen Menschenrechtskonvention. Die Arbeit greift ein Grundrechtsproblem auf, das sich gerade in rechtlichen und politischen Umbruchssituationen wie diejenige, die Georgien als Nachfolgestaat der zerbrochenen Sowjetunion durchlebt, als besonders wichtig erweist. Auf dem Weg zur dogmatischen Entfaltung einer grundrechtlichen Schutzpflicht wird als eine Art Leitbild die Europäische Menschenrechtskonvention (EMRK) herangezogen. Dies erklärt sich aus der Natur der EMRK, die sich als eine Art Verfassung für Europa darstellt und in Georgien seit 1999 in Kraft ist. In der Arbeit wird auf die deutsche Schutzpflichtenlehre verwiesen. Das erklärt sich aus der in Deutschland schon seit etwa 30 Jahren geführten Diskussion, die immer noch nicht abgeschlossen ist, aber aus der sich bemerkenswerte und kontroverse Ergebnisse ziehen lassen. Die Arbeit zeigt, dass die georgische Verfassung zahlreiche Ansätze der staatlichen Schutzpflichten – allgemeiner und konkreter Art – liefert, die auch vor allem in der Rechtsprechung des Georgischen Verfassungsgerichts verschiedentlich schon aufgegriffen wurden, durchaus zum Teil unter Rückgriff auf Aussagen der Europäischen Menschenrechtskonvention (EMRK) bzw. des Europäischen Gerichtshofes für Menschenrechte (EGMR). Den Bereich der grundrechtlichen Schutzpflichten der georgischen Verfassung auszuleuchten ist für eine relativ neue Rechtstaatlichkeit eines postsowjetischen Staates wichtig, um den Anstoß für eine dringend nötige Debatte zu geben.
An important characteristic of Service-Oriented Architectures is that clients do not depend on the service implementation's internal assignment of methods to objects. It is perhaps the most important technical characteristic that differentiates them from more common object-oriented solutions. This characteristic makes clients and services malleable, allowing them to be rearranged at run-time as circumstances change. That improvement in malleability is impaired by requiring clients to direct service requests to particular services. Ideally, the clients are totally oblivious to the service structure, as they are to aspect structure in aspect-oriented software. Removing knowledge of a method implementation's location, whether in object or service, requires re-defining the boundary line between programming language and middleware, making clearer specification of dependence on protocols, and bringing the transaction-like concept of failure scopes into language semantics as well. This paper explores consequences and advantages of a transition from object-request brokering to service-request brokering, including the potential to improve our ability to write more parallel software.
Aspect-oriented middleware is a promising technology for the realisation of dynamic reconfiguration in heterogeneous distributed systems. However, like other dynamic reconfiguration approaches, AO-middleware-based reconfiguration requires that the consistency of the system is maintained across reconfigurations. AO-middleware-based reconfiguration is an ongoing research topic and several consistency approaches have been proposed. However, most of these approaches tend to be targeted at specific contexts, whereas for distributed systems it is crucial to cover a wide range of operating conditions. In this paper we propose an approach that offers distributed, dynamic reconfiguration in a consistent manner, and features a flexible framework-based consistency management approach to cover a wide range of operating conditions. We evaluate our approach by investigating the configurability and transparency of our approach and also quantify the performance overheads of the associated consistency mechanisms.
Enforcing security policies to distributed systems is difficult, in particular, when a system contains untrusted components. We designed AspectKE*, a distributed AOP language based on a tuple space, to tackle this issue. In AspectKE*, aspects can enforce access control policies that depend on future behavior of running processes. One of the key language features is the predicates and functions that extract results of static program analysis, which are useful for defining security aspects that have to know about future behavior of a program. AspectKE* also provides a novel variable binding mechanism for pointcuts, so that pointcuts can uniformly specify join points based on both static and dynamic information about the program. Our implementation strategy performs fundamental static analysis at load-time, so as to retain runtime overheads minimal. We implemented a compiler for AspectKE*, and demonstrate usefulness of AspectKE* through a security aspect for a distributed chat system.