Refine
Has Fulltext
- yes (460) (remove)
Year of publication
- 2010 (460) (remove)
Document Type
- Article (149)
- Doctoral Thesis (83)
- Monograph/Edited Volume (72)
- Postprint (49)
- Review (27)
- Conference Proceeding (25)
- Part of Periodical (18)
- Preprint (16)
- Master's Thesis (10)
- Working Paper (5)
Language
- German (287)
- English (156)
- Multiple languages (8)
- Spanish (8)
- French (1)
Keywords
- Deutschland (19)
- Germany (19)
- Poland (18)
- Polen (18)
- Integration (17)
- Consolidation (15)
- European Union (15)
- Europäische Union (15)
- Vertiefung (15)
- Humboldt und Hispanoamerika (5)
Institute
- WeltTrends e.V. Potsdam (43)
- Institut für Jüdische Studien und Religionswissenschaft (35)
- Vereinigung für Jüdische Studien e. V. (33)
- Wirtschaftswissenschaften (31)
- Kommunalwissenschaftliches Institut (30)
- MenschenRechtsZentrum (30)
- Historisches Institut (27)
- Extern (25)
- Department Linguistik (22)
- Institut für Informatik und Computational Science (22)
Background: Protein phosphorylation is an important post-translational modification influencing many aspects of dynamic cellular behavior. Site-specific phosphorylation of amino acid residues serine, threonine, and tyrosine can have profound effects on protein structure, activity, stability, and interaction with other biomolecules. Phosphorylation sites can be affected in diverse ways in members of any species, one such way is through single nucleotide polymorphisms (SNPs). The availability of large numbers of experimentally identified phosphorylation sites, and of natural variation datasets in Arabidopsis thaliana prompted us to analyze the effect of non-synonymous SNPs (nsSNPs) onto phosphorylation sites.
Results: From the analyses of 7,178 experimentally identified phosphorylation sites we found that: (i) Proteins with multiple phosphorylation sites occur more often than expected by chance. (ii) Phosphorylation hotspots show a preference to be located outside conserved domains. (iii) nsSNPs affected experimental phosphorylation sites as much as the corresponding non-phosphorylated amino acid residues. (iv) Losses of experimental phosphorylation sites by nsSNPs were identified in 86 A. thaliana proteins, among them receptor proteins were overrepresented.
These results were confirmed by similar analyses of predicted phosphorylation sites in A. thaliana. In addition, predicted threonine phosphorylation sites showed a significant enrichment of nsSNPs towards asparagines and a significant depletion of the synonymous substitution. Proteins in which predicted phosphorylation sites were affected by nsSNPs (loss and gain), were determined to be mainly receptor proteins, stress response proteins and proteins involved in nucleotide and protein binding. Proteins involved in metabolism, catalytic activity and biosynthesis were less affected.
Conclusions: We analyzed more than 7,100 experimentally identified phosphorylation sites in almost 4,300 protein-coding loci in silico, thus constituting the largest phosphoproteomics dataset for A. thaliana available to date. Our findings suggest a relatively high variability in the presence or absence of phosphorylation sites between different natural accessions in receptor and other proteins involved in signal transduction. Elucidating the effect of phosphorylation sites affected by nsSNPs on adaptive responses represents an exciting research goal for the future.
A large number and wide variety of lake ecosystem models have been developed and published during the past four decades. We identify two challenges for making further progress in this field. One such challenge is to avoid developing more models largely following the concept of others ('reinventing the wheel'). The other challenge is to avoid focusing on only one type of model, while ignoring new and diverse approaches that have become available ('having tunnel vision'). In this paper, we aim at improving the awareness of existing models and knowledge of concurrent approaches in lake ecosystem modelling, without covering all possible model tools and avenues. First, we present a broad variety of modelling approaches. To illustrate these approaches, we give brief descriptions of rather arbitrarily selected sets of specific models. We deal with static models (steady state and regression models), complex dynamic models (CAEDYM, CE-QUAL-W2, Delft 3D-ECO, LakeMab, LakeWeb, MyLake, PCLake, PROTECH, SALMO), structurally dynamic models and minimal dynamic models. We also discuss a group of approaches that could all be classified as individual based: super-individual models (Piscator, Charisma), physiologically structured models, stage-structured models and traitbased models. We briefly mention genetic algorithms, neural networks, Kalman filters and fuzzy logic. Thereafter, we zoom in, as an in-depth example, on the multi-decadal development and application of the lake ecosystem model PCLake and related models (PCLake Metamodel, Lake Shira Model, IPH-TRIM3D-PCLake). In the discussion, we argue that while the historical development of each approach and model is understandable given its 'leading principle', there are many opportunities for combining approaches. We take the point of view that a single 'right' approach does not exist and should not be strived for. Instead, multiple modelling approaches, applied concurrently to a given problem, can help develop an integrative view on the functioning of lake ecosystems. We end with a set of specific recommendations that may be of help in the further development of lake ecosystem models.
We present an approach that provides automatic or semi-automatic support for evolution and change management in heterogeneous legacy landscapes where (1) legacy heterogeneous, possibly distributed platforms are integrated in a service oriented fashion, (2) the coordination of functionality is provided at the service level, through orchestration, (3) compliance and correctness are provided through policies and business rules, (4) evolution and correctness-by-design are supported by the eXtreme Model Driven Development paradigm (XMDD) offered by the jABC (Margaria and Steffen in Annu. Rev. Commun. 57, 2004)—the model-driven service oriented development platform we use here for integration, design, evolution, and governance. The artifacts are here semantically enriched, so that automatic synthesis plugins can field the vision of Enterprise Physics: knowledge driven business process development for the end user.
We demonstrate this vision along a concrete case study that became over the past three years a benchmark for Semantic Web Service discovery and mediation. We enhance the Mediation Scenario of the Semantic Web Service Challenge along the 2 central evolution paradigms that occur in practice: (a) Platform migration: platform substitution of a legacy system by an ERP system and (b) Backend extension: extension of the legacy Customer Relationship Management (CRM) and Order Management System (OMS) backends via an additional ERP layer.
Quantifying uncertainty, variability and likelihood for ordinary differential equation models
(2010)
Background
In many applications, ordinary differential equation (ODE) models are subject to uncertainty or variability in initial conditions and parameters. Both, uncertainty and variability can be quantified in terms of a probability density function on the state and parameter space.
Results
The partial differential equation that describes the evolution of this probability density function has a form that is particularly amenable to application of the well-known method of characteristics. The value of the density at some point in time is directly accessible by the solution of the original ODE extended by a single extra dimension (for the value of the density). This leads to simple methods for studying uncertainty, variability and likelihood, with significant advantages over more traditional Monte Carlo and related approaches especially when studying regions with low probability.
Conclusions
While such approaches based on the method of characteristics are common practice in other disciplines, their advantages for the study of biological systems have so far remained unrecognized. Several examples illustrate performance and accuracy of the approach and its limitations.
Background
Micrometer resolution placement and immobilization of probe molecules is an important step in the preparation of biochips and a wide range of lab-on-chip systems. Most known methods for such a deposition of several different substances are costly and only suitable for a limited number of probes. In this article we present a flexible procedure for simultaneous spatially controlled immobilization of functional biomolecules by molecular ink lithography.
Results
For the bottom-up fabrication of surface bound nanostructures a universal method is presented that allows the immobilization of different types of biomolecules with micrometer resolution. A supporting surface is biotinylated and streptavidin molecules are deposited with an AFM (atomic force microscope) tip at distinct positions. Subsequent incubation with a biotinylated molecule species leads to binding only at these positions. After washing streptavidin is deposited a second time with the same AFM tip and then a second biotinylated molecule species is coupled by incubation. This procedure can be repeated several times. Here we show how to immobilize different types of biomolecules in an arbitrary arrangement whereas most common methods can deposit only one type of molecules. The presented method works on transparent as well as on opaque substrates. The spatial resolution is better than 400 nm and is limited only by the AFM's positional accuracy after repeated z-cycles since all steps are performed in situ without moving the supporting surface. The principle is demonstrated by hybridization to different immobilized DNA oligomers and was validated by fluorescence microscopy.
Conclusions
The immobilization of different types of biomolecules in high-density microarrays is a challenging task for biotechnology. The method presented here not only allows for the deposition of DNA at submicrometer resolution but also for proteins and other molecules of biological relevance that can be coupled to biotin.
Background: For heterogeneous tissues, such as blood, measurements of gene expression are confounded by relative proportions of cell types involved. Conclusions have to rely on estimation of gene expression signals for homogeneous cell populations, e.g. by applying micro-dissection, fluorescence activated cell sorting, or in-silico deconfounding. We studied feasibility and validity of a non-negative matrix decomposition algorithm using experimental gene expression data for blood and sorted cells from the same donor samples. Our objective was to optimize the algorithm regarding detection of differentially expressed genes and to enable its use for classification in the difficult scenario of reversely regulated genes. This would be of importance for the identification of candidate biomarkers in heterogeneous tissues.
Results: Experimental data and simulation studies involving noise parameters estimated from these data revealed that for valid detection of differential gene expression, quantile normalization and use of non-log data are optimal. We demonstrate the feasibility of predicting proportions of constituting cell types from gene expression data of single samples, as a prerequisite for a deconfounding-based classification approach. Classification cross-validation errors with and without using deconfounding results are reported as well as sample-size dependencies. Implementation of the algorithm, simulation and analysis scripts are available.
Conclusions: The deconfounding algorithm without decorrelation using quantile normalization on non-log data is proposed for biomarkers that are difficult to detect, and for cases where confounding by varying proportions of cell types is the suspected reason. In this case, a deconfounding ranking approach can be used as a powerful alternative to, or complement of, other statistical learning approaches to define candidate biomarkers for molecular diagnosis and prediction in biomedicine, in realistically noisy conditions and with moderate sample sizes.
Two recent magnetic field models, GRIMM and xCHAOS, describe core field accelerations with similar behavior up to Spherical Harmonic (SH) degree 5, but which differ significantly for higher degrees. These discrepancies, due to different approaches in smoothing rapid time variations of the core field, have strong implications for the interpretation of the secular variation. Furthermore, the amount of smoothing applied to the highest SH degrees is essentially the modeler’s choice. We therefore investigate new ways of regularizing core magnetic field models. Here we propose to constrain field models to be consistent with the frozen flux induction equation by co-estimating a core magnetic field model and a flow model at the top of the outer core. The flow model is required to have smooth spatial and temporal behavior. The implementation of such constraints and their effects on a magnetic field model built from one year of CHAMP satellite and observatory data, are presented. In particular, it is shown that the chosen constraints are efficient and can be used to build reliable core magnetic field secular variation and acceleration model components.
Live cell flattening
(2010)
Eukaryotic cell flattening is valuable for improving microscopic observations, ranging from bright field (BF) to total internal reflection fluorescence (TIRF) microscopy. Fundamental processes, such as mitosis and in vivo actin polymerization, have been investigated using these techniques. Here, we review the well known agar overlayer protocol and the oil overlay method. In addition, we present more elaborate microfluidics-based techniques that provide us with a greater level of control. We demonstrate these techniques on the social amoebae Dictyostelium discoideum, comparing the advantages and disadvantages of each method.
Background: Cysteine is a component in organic compounds including glutathione that have been implicated in the adaptation of plants to stresses. O-acetylserine (thiol) lyase (OAS-TL) catalyses the final step of cysteine biosynthesis. OAS-TL enzyme isoforms are localised in the cytoplasm, the plastids and mitochondria but the contribution of individual OAS-TL isoforms to plant sulphur metabolism has not yet been fully clarified.
Results: The seedling lethal phenotype of the Arabidopsis onset of leaf death3-1 (old3-1) mutant is due to a point mutation in the OAS-A1 gene, encoding the cytosolic OAS-TL. The mutation causes a single amino acid substitution from Gly(162) to Glu(162), abolishing old3-1 OAS-TL activity in vitro. The old3-1 mutation segregates as a monogenic semidominant trait when backcrossed to its wild type accession Landsberg erecta (Ler-0) and the Di-2 accession. Consistent with its semi-dominant behaviour, wild type Ler-0 plants transformed with the mutated old3-1 gene, displayed the early leaf death phenotype. However, the old3-1 mutation segregates in an 11: 4: 1 (wild type: semi-dominant: mutant) ratio when backcrossed to the Colombia-0 and Wassilewskija accessions. Thus, the early leaf death phenotype depends on two semi-dominant loci. The second locus that determines the old3-1 early leaf death phenotype is referred to as odd-ler (for old3 determinant in the Ler accession) and is located on chromosome 3. The early leaf death phenotype is temperature dependent and is associated with increased expression of defence-response and oxidative-stress marker genes. Independent of the presence of the odd-ler gene, OAS-A1 is involved in maintaining sulphur and thiol levels and is required for resistance against cadmium stress.
Conclusions: The cytosolic OAS-TL is involved in maintaining organic sulphur levels. The old3-1 mutation causes genome-dependent and independent phenotypes and uncovers a novel function for the mutated OAS-TL in cell death regulation.
Portal alumni
(2010)
Das gerade begonnene Jahr wird für die Universität Potsdam ein besonderes werden, ist es doch das 20. Jahr ihres Bestehens. Auf das Erreichte ist die Hochschule mit Recht stolz. Die Universität Potsdam ist für Studieninteressierte ungebrochen attraktiv, was die steigenden Bewerberzahlen zeigen. Allein im vergangenen Jahr haben Uni-Wissenschaftler knapp 42 Millionen Euro Drittmittel eingeworben und die Liste gemeinsamer Verbundprojekte mit außeruniversitären Forschungseinrichtungen der Region wächst weiter. Zu den Erfolgen zählt weiterhin auch die steigende Anzahl von Absolventinnen und Absolventen der Hochschule.
In die Gründung der Universität Potsdam am 15. Juli 1991 flossen zwei Vorgängereinrichtungen ein. Die wichtigste war die Brandenburgische Landeshochschule, vorher Pädagogische Hochschule, die über vier Jahrzehnte hinweg Lehrerinnen und Lehrer ausgebildet hat. Die Lehrerbildung hat auch für die Universität Potsdam profilbildenden Charakter, denn allein vier der fünf Fakultäten sind an der Lehrerbildung beteiligt und haben Generationen von jungen Leuten für den Lehrerberuf qualifiziert. Heute ist das Ziel aller an der Lehrerbildung Beteiligten, eine professionsorientierte, qualitativ hochwertige Lehrerbildung zu sichern, die sich an den Kompetenzen Erziehen, Unterrichten, Beraten, Betreuen, Innovieren und Organisieren orientiert. Eine besondere Herausforderung sieht die Universität Potsdam dabei in der Vernetzung von wissenschaftlicher Forschung und Lehrerbildung.
Portal alumni stellt in der hier vorliegenden Ausgabe im Jubiläumsjahr zwölf Absolventen der Lehrerbildung vor. Sie berichten aus jeweils individueller Perspektive, wie sie ihr Studium an der Universität Potsdam erlebt haben und wie es sie geprägt hat. Und natürlich stellt das Magazin zugleich aktuelle Entwicklungstrends in der Lehrerbildung vor. Wie in allen Heften zuvor berichten wir von der Alumni-Arbeit des Jahres 2010 und stellen Höhepunkte des Unialltags vor. Wir wünschen Ihnen eine unterhaltsame Lektüre und sind gespannt auf Ihr Feedback zu diesem Heft.
Und der Zukunft abgewandt
(2010)
Seit dem Ende der DDR, das den Zusammenbruch des Ostblocks und damit die Beendigung des »Kalten Kriegs« einleitete, wird verstärkt versucht, das Wesen dieses Staates zu definieren und damit seine Folgen auf wirtschaftlicher, sozialer, psychologischer und bildungspolitischer Ebene zu verstehen und einzuordnen. Alexandra Budke analysiert in diesem Band das Schulfach Geographie, das neben der Staatsbürgerkunde und der Geschichte ein zentrales Fach war und in dem die in den Lehrplänen definierte »staatsbürgerliche, weltanschauliche oder ideologische Erziehung« auf der Grundlage des Marxismus-Leninismus stattfinden sollte. Sie klärt, inwiefern Geographieunterricht in der DDR genutzt wurde, um geopolitische Interessen des Staates zu kommunizieren und zu verbreiten. Damit lässt sich durch die detaillierte Analyse des Fachunterrichts auch die Frage beantworten, ob SchülerInnen im Unterricht politisch manipuliert wurden und welche Handlungsmöglichkeiten die zentralen Akteure des Unterrichts, die LehrerInnen und die SchülerInnen, im Rahmen der durch die Bildungspolitik gesetzten curricularen Vorgaben wahrgenommen haben.
Left peripheral focus
(2010)
In Czech, German, and many other languages, part of the semantic focus
of the utterance can be moved to the left periphery of the clause. The main generalization is that only the leftmost accented part of the semantic focus can be moved. We propose that movement to the left periphery is generally triggered by an unspecific edge feature of C (Chomsky 2008) and its restrictions can be attributed to requirements of cyclic linearization, modifying the theory of cyclic linearization developed by Fox and Pesetsky (2005). The crucial assumption is that structural accent is a direct consequence of being linearized at merge, thus it is indirectly relevant for (locality restrictions on) movement. The absence of structural accent correlates with given-ness. Given elements may later receive (topic or contrastive) accents, which accounts for fronting in multiple focus/contrastive topic constructions. Without any additional assumptions, the model can account for movement of pragmatically unmarked elements to the left periphery (‘formal fronting’, Frey 2005). Crucially, the analysis makes no reference at all to concepts of information structure in the syntax, in line with the claim of Chomsky (2008) that UG specifies no direct link between syntax and information structure.
Multi-color fluorescence imaging experiments of wave forming Dictyostelium cells have revealed that actin waves separate two domains of the cell cortex that differ in their actin structure and phosphoinositide composition. We propose a bistable model of actin dynamics to account for these experimental observation. The model is based on the simplifying assumption that the actin cytoskeleton is composed of two distinct network types, a dendritic and a bundled network. The two structurally different states that were observed in experiments correspond to the stable fixed points in the bistable regime of this model. Each fixed point is dominated by one of the two network types. The experimentally observed actin waves can be considered as trigger waves that propagate transitions between the two stable fixed points.
It has been suggested that coronal mass ejections (CMEs) remove the magnetic he-licity of their coronal source region from the Sun. Such removal is often regarded to be necessary due to the hemispheric sign preference of the helicity, which inhibits a simple annihilation by reconnection between volumes of opposite chirality. Here we monitor the relative magnetic he-licity contained in the coronal volume of a simulated flux rope CME, as well as the upward flux of relative helicity through horizontal planes in the simulation box. The unstable and erupting flux rope carries away only a minor part of the initial relative helicity; the major part remains in the volume. This is a consequence of the requirement that the current through an expanding loop must decrease if the magnetic energy of the configuration is to decrease as the loop rises, to provide the kinetic energy of the CME.
The Takab complex is composed of a variety of metamorphic rocks including amphibolites, metapelites, mafic granulites, migmatites and meta-ultramafics, which are intruded by the granitoid. The granitoid magmatic activity occurred in relation to the subduction of the Neo-Tethys oceanic crust beneath the Iranian crust during Tertiary times. The granitoids are mainly granodiorite, quartz monzodiorite, monzonite and quartz diorite. Chemically, the magmatic rocks are characterized by ASI < 1.04, AI < 0.87 and high contents of CaO (up to ∼ 14.5 wt %), which are consistent with the I-type magmatic series. Low FeO t /(FeO t +MgO) values (< 0.75) as well as low Nb, Y and K 2 O contents of the investigated rocks resemble the calc-alkaline series. Low SiO 2 , K 2 O/Na 2 O and Al 2 O 3 accompanied by high CaO and FeO contents indicate melting of metabasites as an appropriate source for the intrusions. Negative Ti and Nb anomalies verify a metaluminous crustal origin for the protoliths of the investigated igneous rocks. These are comparable with compositions of the associated mafic migmatites, in the Takab metamorphic complex, which originated from the partial melting of amphibolites. Therefore, crustal melting and a collision-related origin for the Takab calc-alkaline intrusions are proposed here on the basis of mineralogy and geochemical characteristics. The P–T evolution during magmatic crystallization and subsolidus cooling stages is determined by the study of mineral chemistry of the granodiorite and the quartz diorite. Magmatic crystallization pressure and temperature for the quartz-diorite and the granodiorite are estimated to be P ∼ 7.8 ± 2.5 kbar, T ∼ 760 ± 75 ◦C and P ∼ 5 ± 1 kbar, T ∼ 700 ◦C, respectively. Subsolidus conditions are consistent with temperatures of ∼ 620 ◦C and ∼ 600 ◦C, and pressures of ∼ 5 kbar and ∼ 3.5 kbar for the quartz-diorite and the granodiorite, respectively.
How much is too much?
(2010)
Although dietary nutrient intake is often adequate, nutritional supplement use is common among elite athletes. However, high-dose supplements or the use of multiple supplements may exceed the recommended daily allowance (RDA) of particular nutrients or even result in a daily intake above tolerable upper limits (UL). The present case report presents nutritional intake data and supplement use of a highly trained male swimmer competing at international level. Habitual energy and micronutrient intake were analysed by 3 d dietary reports. Supplement use and dosage were assessed, and total amount of nutrient supply was calculated. Micronutrient intake was evaluated based on RDA and UL as presented by the European Scientific Committee on Food, and maximum permitted levels in supplements (MPL) are given. The athlete’s diet provided adequate micronutrient content well above RDA except for vitamin D. Simultaneous use of ten different supplements was reported, resulting in excess intake above tolerable UL for folate, vitamin E and Zn. Additionally, daily supplement dosage was considerably above MPL for nine micronutrients consumed as artificial products. Risks and possible side effects of exceeding UL by the athlete are discussed. Athletes with high energy intake may be at risk of exceeding UL of particular nutrients if multiple supplements are added. Therefore, dietary counselling of athletes should include assessment of habitual diet and nutritional supplement intake. Educating athletes to balance their diets instead of taking supplements might be prudent to prevent health risks
that may occur with long-term excess nutrient intake.
Die These des Aufsatzes lautet, dass es sich bei Sebastian Brants „Narrenschiff“ um einen Text handelt, der entsprechend der Prinzipien verstanden werden kann, die Rudolf Agricola für das Sammeln von Argumenten formuliert hat. Das Gründungsdokument dieser humanistischen Methode, die unter dem Begriff der „loci communes“ Geschichte gemacht hat, ist ein Brief Agricolas aus dem Jahr 1484. Ein erster Teil des Aufsatzes stellt Agricolas Argumentationstheorie dar, ein zweiter Teil zeigt, dass Brants „Narrenschiff“ als Ergebnis dieser Argumentationstheorie verstanden werden kann.
'Gelegenheitsdichtung'
(2010)
Think local sell global
(2010)
Die Magisterarbeit beschäftigt sich mit der politischen Förderung der geringfügigen Beschäftigung sowie der Inanspruchnahme haushaltsnaher Dienstleistungen und deren Bedeutung für eine gleichstellungsorientierte Familien- und Arbeitsmarktpolitik. Als Ausgangspunkt wird die Frage gestellt, ob geringfügige Beschäftigung und haushaltsnahe Dienstleistungen einen Arbeitsmarkt für Frauen im Niedriglohnsektor schaffen oder ob sie eine Perspektive zur besseren Vereinbarkeit von Erwerbsarbeit und Carearbeit bieten. Dazu wird die Perspektive der Beschäftigten in sogenannten Minijobs als auch der NutzerInnen haushaltsnaher Dienstleistungen analysiert. Als theoretischer Rahmen liegt der Arbeit die These der geschlechterkritischen, vergleichenden Wohlfahrtsstaatforschung zugrunde, dass Policies familialisierende und defamilialisierende Wirkungen haben können. Auf Grundlage dieses Rahmens werden zwei Gesetze und deren gleichstellungspolitische Wirkung analysiert (Familienleistungsgesetz und 2. Gesetz für moderne Dienstleistungen am Arbeitsmarkt – Hartz II). Die Arbeit gelangt zu dem Ergebnis, dass trotz der engen Verflechtung der beiden Politikfelder Arbeitsmarkt- und Familienpolitik ein Mismatch zwischen den analysierten Gesetzen besteht. Insbesondere hinsichtlich der geringfügigen Beschäftigung gelangt die Arbeit aus einer gleichstellungspolitischen Perspektive zu dem Urteil, dass sie sich am modernisierten Ernährermodell orientiert und Frauen auf die Rolle als Zuverdienerin festlegt. Auf diese Weise werden Anreize für eine geschlechterspezifische Arbeitsteilung gelegt.
Bei der Entlassung von Mitarbeitern sind Interessenkonflikte vorprogrammiert. Gut begründete Positionen stehen sich bei diesen folgenreichen Personalentscheidungen oft unversöhnlich gegenüber. In den letzten Jahren waren vermehrt Kündigungen aufgrund von Bagatelldelikten in den Medien präsent. So wurde einer Kassiererin fristlos gekündigt, weil sie zwei Pfandbons unterschlagen haben sollte. Angesichts der Finanz- und Wirtschaftskrise, in der Banken Milliarden fehlinvestierten die Bankmanager jedoch kaum zur Rechenschaft gezogen wurden, verstärkte sich der Eindruck unbotmäßiger Härte und Ungerechtigkeit. Aber ist dieser Eindruck gerechtfertigt? Unterschiedliche Urteile der Instanzgerichte zu Bagatellkündigungen zeigen, dass im Arbeitsrecht nicht abschließend geklärt ist, wie in solchen Bagatellkündigungsfällen verfahren werden soll. Zudem stellt die Rechtskonformität einer Kündigung ohnehin kein abschließendes Kriterium dafür dar, ob sie auch aus ethischer Sicht gut ist. Das Ziel der Arbeit ist daher die Frage zu beantworten, wie Bagatellkündigungen moralisch zu bewerten sind. Ethisch relevante Aspekte werden zur Unterstützung von Personalentscheidungen in der Praxis identifiziert. Zunächst werden als Überblick die Ergebnisse einer Medienrecherche zu den Bagatellkündigungen dargestellt. Im ersten Untersuchungsschritt wird gefragt, warum eine Kündigung als Auflösung einer privaten Vertragsbeziehung rechtfertigungsbedürftig ist. An Praxisbeispielen wird dargestellt, welche Regelungen zum Kündigungsschutz bestehen und wie diese durch die Spezifika der Arbeitsbeziehung anhand ethischer Aspekte begründet werden. Bezugnehmend auf die Stakeholder-Sicht auf Wirtschaftsunternehmen und Überlegungen der Agenturtheorie wird gezeigt, dass die Beziehung im Arbeitskontext Spezifika aufweist, die übergebührliche Rechte und Pflichten begründen und auch in der psychologischen impliziten Vertragsbeziehung ihren Ausdruck finden. Es wird gezeigt, dass sich – insbesondere bei langjährigen Vertragsverhältnissen – ein prima-facie-Recht der Arbeitnehmer nicht gekündigt zu werden begründen lässt. Dieses Recht liegt im Status der Arbeitnehmer als rationalen moralfähigen Personen mit Anspruch auf Achtung ihrer Würde begründet. Aus der Personenhaftigkeit der Mitarbeiter entspringt der legitime Anspruch, rationale Gründe für Entscheidungen, welche sie betreffen, genannt zu bekommen. Es wird argumentiert, ein Arbeitgeber dürfe die Arbeitsbeziehung nur aufkündigen, wenn es hierfür objektiv gute Gründe gibt – ein grundsätzlicher Kündigungsschutz ist also nicht nur rechtlich sondern auch moralisch geboten. Daher schließt sich die Frage an, ob das Bagatelldelikt als Vertragspflichtverletzung ein guter objektiver Grund ist, welcher eine Kündigung rechtfertigt. Von Seiten der Kündigungsbefürworter wird argumentiert, das Vertrauensverhältnis sei durch die Tat zerstört. Daher wird geprüft, ob der Vertrauensverlust aufgrund des Bagatelldiebstahls ein guter Grund für die Kündigung ist. Ob das Bagatelldelikt als objektiver Grund für den Vertrauensverlust gewertet werden kann, hängt nun davon ab, ob der Mitarbeiter das Vertrauen tatsächlich missbraucht hat. Daraus folgt, dass sich die moralische Bewertung des Delikts an Prinzipien orientiert, die auch im Strafrecht gelten (Schuldprinzip, Unschuldsvermutung, Rechtsprinzips, Ultima-Ratio-Prinzip). Das Ergebnis der Untersuchung ist: Bagatelldelikte können aufgrund ihrer Spezifika anhand dieser gültigen Prinzipien schwerlich als objektiver Grund angesehen werden, der eine fristlose Kündigung ohne vorherige Abmahnung rechtfertigt. Abschließend wird gezeigt, dass auch die vermeintliche präventive Wirkung der Kündigung nicht als guter Kündigungsgrund gelten kann. Mit spezialpräventiven Gründen kann die Kündigung ebenso wenig wie mit positiver als auch negativer generalpräventiver Wirkungen begründet werden. Insbesondere stellt eine Kündigung aus generalpräventiven Zwecken eine illegitime Instrumentalisierung des Mitarbeiters als Person dar. Zwar können Kündigungen bei Bagatelldelikten durchaus nicht nur arbeitsrechtlich, sondern auch moralisch gerechtfertigt sein. Aufgrund der Spezifika der Bagatelldelikte und der Vertrauenskündigung ist die fristlose Kündigung in den meisten vorliegenden Fällen aus ethischer Sicht aber nicht akzeptabel. Hohe Anforderungen an die Objektivität des Vertrauensverlustes, der als Kündigungsgrund dienen soll, sind aufgrund der schwächeren Machtposition der Mitarbeiter notwendig und klug im Sinne der Wahrung des betrieblichen und gesellschaftlichen Friedens. Es wird daher für ein grundsätzliches Abmahnungsgebot bei Bagatelldiebstählen plädiert, welche weitergehend durch eine Wertgrenze definiert werden können. Weitere Maßnahmen, mit denen man missbräuchlichen Bagatelldeliktkündigungen vorbeugen oder auf Bagatelldelikte reagieren kann werden im Ausblick genannt.
KoProV
(2010)
In der universitären Lehre ändert sich der Leitgedanke von einer qualifikationsorientierten hin zu einer kompetenzorientierten Ausbildung. Der Begriff Kompetenz lässt sich dabei grob in die fachlichen und die überfachlichen Kompetenzen unterteilen. Insbesondere die Vermittlung von Schlüsselqualifikationen hat in der Lehre von naturwissenschaftlichen Fachrichtungen nur unzureichend Einzug erhalten. Während der klassische Vorlesungsbetrieb auf den Erwerb von Fachkompetenz zielt, stoßen ausschließlich projektorientierte Veranstaltungen schnell an ihre Grenzen hinsichtlich der Teilnehmergröße oder Umfang der Lerninhalte. Um auf geeignete Art und Weise den Erwerb von überfachlichen Kompetenzen zu ermöglichen, bedarf es neuer didaktischer Konzepte, die eine engere Verknüpfung von klassischen Vorlesungen und dem projektorientierten Lernen vorsehen. In diesem Sinne versucht der skizzierte Ansatz der koordinierten Projektvorlesung(KoProV) Wissensvermittlung im Rahmen von Vorlesungseinheiten mit koordinierten Praxisphasen in Teilgruppen zu verbinden. Für eine erfolgreiche Durchführung und Erarbeitung des begleitenden Praxisprojektes durch mehrere Teilgruppen sind organisatorische und technische Randbedingungen zu beachten.
Ziel dieses Beitrages ist es, das didaktische Konzept Fallstudien und seine lerntheoretisch-didaktische Begründung vorzustellen. Es wird die These begründet, dass mediale Räume für die Bearbeitung von Fallstudien lernunterstützend wirken und sich in besonderer Weise für Prozesse der Lernberatung und Lernbegleitung in der Hochschule eignen. Diese These wird entlang dem lerntheoretischen Konzept der Bedeutungsräume von Studierenden in Verbindung mit den Spezifika medialer Räume entfaltet. Für den daraus entstandenen E-Learning-Ansatz Online-Fallstudien kann hier lediglich ein Ausblick gegeben werden.
Was ist eine kreative Leistung von Studierenden? Dies ist die Ausgangsfrage, wenn Lehre kreativitätsförderlicher als bislang gestaltet werden soll. In diesem Beitrag wird ein Modell zur Förderung von Kreativität in der Hochschullehre vorgestellt und mit einem Beispiel verdeutlicht. Es wird die veränderte Konzeption der Vorlesung Informatik & Gesellschaft illustriert: Studierende hatten die Aufgabe, eine „e-Infrastruktur für die Universität NeuDoBoDu“ zu entwickeln. Hierzu werden die Ergebnisse der Evaluation und Erfahrungen erläutert.
Für die Integration und den Bedarf der hochqualifizierten Migranten auf dem Arbeitsmarkt in Deutschland gibt es viele Überlegungen, aber noch keine ausreichenden Lösungen. Dieser Artikel beschreibt eine praktische Lösung über die Umsetzung des Konzepts für die Qualifizierung der akademischen Migranten am Beispiel eines Studienprogramms in Informatik an der Universität Oldenburg.
In der letzten Jahren ist die Zahl der erfolgreichen Prüfungen von Studierenden im Informatikkurs des ersten Studienjahres für verschiedene Studiengänge an der Universität Óbuda stark gesunken. Dies betrifft Prüfungen in den Teilgebieten Rechnerarchitektur, Betrieb von Peripheriegeräten, Binäre Codierung und logische Operationen, Computerviren, Computernetze und das Internet, Steganographie und Kryptographie, Betriebsysteme. Mehr als der Hälfte der Studenten konnte die Prüfungen der ersten Semester nicht erfolgreich absolvieren. Die hier vorgelegte Analyse der Studienleistungen zielt darauf ab, Gründe für diese Entwicklung zu identifizieren, die Zahl der Abbrecher zu reduzieren und die Leistungen der Studenten zu verbessern. Die Analyse zeigt, dass die Studenten die erforderlichen Lehrmaterialen erst ein bis zwei Tage vor oder sogar erst am Tag der Klausuren vom Server downloaden, so dass sie nicht mehr hinreichend Zeit zum Lernen haben. Diese Tendenz zeigt sich bei allen Teilgebieten des Studiengangs. Ein Mangel an kontinuierlicher Mitarbeit scheint einer der Gründe für ein frühes Scheitern zu sein. Ferner zeigt sich die Notwendigkeit, dass bei den Lehrangeboten in Informatik auf eine kontinuierliche Kommunikation mit den Studierenden und Rückmeldung zu aktuellen Unterrichtsinhalten zu achten ist. Dies kann durch motivierende Maßnahmen zur Teilnahme an den Übungen oder durch kleine wöchentliche schriftliche Tests geschehen.
Bei der Suche nach Möglichkeiten, die Weiterbildung für Informatiklehrkräfte auszubauen, bietet sich der Einsatz virtueller Lernräume an. Dieses Papier berichtet über ein Projekt, in dem ein exemplarischer virtueller Lernraum für kollaboratives Lernen in der Lehrerweiterbildung in Informatik theoriegeleitet erstellt, erprobt und bewertet wurde. Die erzielten Ergebnisse über das Nutzungsverhalten können für weitere E-Learningprojekte in der Lehrerbildung hilfreich sein. Der Schwerpunkt dieses Papiers liegt auf der Gestaltung des Lernraums unter Beachtung der speziellen Situation der Informatiklehrkräfte, nicht auf der didaktischen Aufbereitung der betreffenden Lerneinheit.
Projektmanagement-Kompetenzen werden von Unternehmen unterschiedlichster Branchen mit wachsender Priorität betrachtet und eingefordert. Als Beitrag zu einer kompetenzorientierten Ausbildung werden in diesem Paper interdisziplinäre Studienmodule als Bestandteil des Wirtschaftsinformatik-Studiums vorgestellt. Zielsetzung der Studienmodule ist die Befähigung der Studierenden, konkrete Projekte unter Nutzung von standardisierten Werkzeugen und Methoden nach dem IPMA-Standard planen und durchführen zu können.
Die Evaluierung von Lehrveranstaltungen hat in vielen Lehreinrichtungen eine lange Tradition. In diesen klassischen Evaluierungsszenarien werden einmalig pro Semester Umfragebögen an die Studierenden verteilt und anschließend manuell ausgewertet. Die Ergebnisse sind dann zumeist am Ende der Vorlesungszeit vorhanden und geben einen punktuellen Einblick in die Qualität der Lehrveranstaltung bis zum Zeitpunkt der durchgeführten Evaluation. In diesem Artikel stellen wir das Konzept des Rapid Feedback, seine Einsatzmöglichkeiten in universitären Lehrveranstaltungen und eine prototypische Integration in eine koaktive Lern- und Arbeitsumgebung vor.
Pseudo
(2010)
Pseudo ist eine auf Pseudocode basierende Programmiersprache, welche in der akademischen Lehre zum Einsatz kommen und hier die Vermittlung und Untersuchung von Algorithmen und Datenstrukturen unterstützen soll. Dieser Beitrag geht auf die Besonderheiten der Sprache sowie mögliche didaktische Szenarien ein.
Output statt Input
(2010)
Die in der Fachdidaktik Informatik im Zusammenhang mit den Bildungsstandards seit Jahren diskutierte Outputorientierung wird mittelfristig auch für die Hochschullehre verbindlich. Diese Änderung kann als Chance aufgefasst werden, aktuellen Problemen der Informatiklehre gezielt entgegenzuwirken. Basierend auf der Theorie des Constructive Alignment wird vorgeschlagen, im Zusammenhang mit der Outputorientierung eine Abstimmung von intendierter Kompetenz, Lernaktivität und Prüfung vorzunehmen. Zusätzlich profitieren Lehramtsstudenten von den im eigenen Lernprozess erworbenen Erfahrungen im Umgang mit Kompetenzen: wie diese formuliert, erarbeitet und geprüft werden. Anforderungen an die Formulierung von Kompetenzen werden untersucht, mit Beispielen belegt und Möglichkeiten zur Klassifizierung angeregt. Ein Austausch in den Fachbereichen und Fachdidaktiken über die individuell festgelegten Kompetenzen wird vorgeschlagen, um die hochschuldidaktische Diskussion zu bereichern.
Zusammenfassung: Game-based Learning und Edutainment sind aktuelle Schlagworte im Bereich der Hochschulausbildung. Zunächst verbindet man damit die Integration einer Spiel- und Spaßkultur in die herkömmlichen Lehrveranstaltungen wie Vorlesungen, Übungen, Praktika und Seminare. Die nachfolgenden Ausführungen gehen einer genaueren Begriffsanalyse nach und untersuchen, ob Game-based Learning und Edutainment tatsächlich neuartige Unterrichtsformen erfordern oder neue didaktische Überlegungen in bestehendes Unterrichtsgeschehen bringen – oder ob es nicht doch an einigen Stellen „alter Wein in neuen Schläuchen“ ist.
Die Studienanfänger der Informatik haben in Deutschland sehr unterschiedliche Grundkenntnisse in der Programmierung. Dies führt immer wieder zu Schwierigkeiten in der Ausrichtung der Einführungsveranstaltungen. An der TU München wird seit dem Wintersemester 2008/2009 nun eine neue Art von Vorkursen angeboten. In nur 2,5 Tagen erstellen die Teilnehmer ein kleines objektorientiertes Programm. Dabei arbeiten sie weitestgehend alleine, unterstützt von einem studentischen Tutor. In dieser Arbeit sollen nun das Konzept der sogenannten „Vorprojekte“ sowie erste Forschungsansätze vorgestellt werden
Die Möglichkeiten sich zu informieren, am Leben der vielen Anderen teilzunehmen ist durch das Internet mit seinen Tweets, Google-Angeboten und sozialen Netzwerken wie Facebook ins Unermessliche gewachsen. Zugleich fühlen sich viele Nutzer überfordert und meinen, im Meer der Informationen zu ertrinken. So bekennt Frank Schirrmacher in seinem Buch Payback, dass er den geistigen Anforderungen unserer Zeit nicht mehr gewachsen ist. Sein Kopf komme nicht mehr mit. Er sei unkonzentriert, vergesslich und ständig abgelenkt. Das, was vielen zum Problem geworden ist, sehen viele Studierende eher pragmatisch. Der Wissenserwerb in Zeiten von Internet und E-Learning läuft an Hochschulen häufig nach der Helene-Hegemann-Methode ab: Zunächst machen sich die Studierenden, z.B. im Rahmen einer Studien- oder Hausarbeit, bei Wikipedia „schlau“, ein Einstieg ist geschafft. Anschließend wird dieses Wissen mit Google angereichert. Damit ist Überblickswissen vorhanden. Mit geschickter copy-and-paste-Komposition lässt sich daraus schon ein „Werk“ erstellen. Der ein oder andere Studierende gibt sich mit diesem Wissenserwerb zufrieden und bricht seinen Lernprozess hier bereits ab. Nun ist zwar am Ende jeder Studierende für seinen Wissenserwerb selbst verantwortlich. Die erkennbar unbefriedigende Situation sollte die Hochschulen aber herausfordern, das Internet in Vorlesungen und Seminaren auszuprobieren und sinnvolle Anwendungen zu entwickeln. Beispiele gibt es durchaus. Unter der Metapher E-Learning hat sich ein umfangreicher Forschungsschwerpunkt an den Universitäten entwickelt. Einige Beispiele von vielen: So hat der Osnabrücker Informatik-Professor Oliver Vornberger seine Vorlesungen als Video ins Netz gestellt. Per RSS ist es möglich, Sequenzen aufs iPod zu laden. Die übliche Dozentenangst, dann würden sie ja vor leeren Bänken sitzen, scheint unbegründet. Sie werden von den Studierenden vor allem zur Prüfungsvorbereitung genutzt. Wie ist das Internet, das für die junge Generation zu einem alles andere verdrängenden Universalmedium geworden ist, didaktisch in die Hochschullehre einzubinden? Wie also ist konkret mit diesen Herausforderungen umzugehen? Dies soll uns im Folgenden beschäftigen.
Inhalt: Theoretische Grundlagen der Verfassungsgesetzgebung ; Verfassungsgesetzgebung und Verfassungsbedeutung ; Europäischer Verfassungsgebungsprozess ; Verfassungsausarbeitung , Verfassungsdiskussion , Akt der Verfassungsgebung , Verfassungsbedeutung, symbolische Funktionen und Identitätsstiftung , Eine Verfassung für die EU-Bürger ; Die europäische Verfassung aus polnischer Sicht ; Erarbeitung der europäischen Verfassung im Konvent ; Eine europäische Verfassung für die Bürger? ; Ratifikation der europäischen Verfassung ; Identitätsstiftung durch eine europäische Verfassung? ; Vertrag statt Verfassung ; Literatur
Inhalt: Die Zivilgesellschaft Polens ; Worin liegen die Ursachen? ; Empowerment durch Europäisierung ; Finanzielle Unterstützung durch die EU ; New modes of governance – Neue Formen der Kooperation? ; Europäische Gesetzgebung vs. nationalstaatliche Politik ; Erfolge für sexuelle Minderheiten in Polen ; Zusammenfassung ; Literatur
Inhalt: Gründe für das Entstehen der Parteienfinanzierung aus dem Staatshaushalt ; Argumente für und gegen die Haushaltsfinanzierung politischer Parteien ; Finanzierung politischer Parteien in Polen nach 1989 ; Die Diskussion über das System der Finanzierung politischer Parteien in Polen ; Zusammenfassung ; Literatur
Inhalt: Die Osterweiterung der Europäischen Union – Die anomischen Konsequenzen der deutschen Wiedervereinigung Die theoretische Debatte über die Osterweiterung der Europäischen Union Deutsche Wiedervereinigung und europäische Integration Schwach sozialisierte Akteure in diffusen Entscheidungskontexten Diffuse Entscheidungskontexte und die Osterweiterung der Europäischen Union Schlussfolgerungen Literatur