Refine
Year of publication
- 2011 (570) (remove)
Document Type
- Article (225)
- Doctoral Thesis (146)
- Monograph/Edited Volume (123)
- Review (32)
- Master's Thesis (9)
- Other (9)
- Part of Periodical (8)
- Postprint (4)
- Working Paper (4)
- Conference Proceeding (3)
Language
- German (570) (remove)
Is part of the Bibliography
- yes (570) (remove)
Keywords
- Deutschland (5)
- Argumentationstheorie (4)
- Aristoteles (4)
- Averroes (4)
- Germany (4)
- Poetik (4)
- Political Science (4)
- Politikwissenschaft (4)
- Financial Crisis (3)
- Finanzkrise (3)
Institute
- Institut für Romanistik (76)
- Wirtschaftswissenschaften (66)
- Sozialwissenschaften (57)
- Historisches Institut (45)
- Institut für Germanistik (35)
- Department Psychologie (24)
- Department Erziehungswissenschaft (22)
- Öffentliches Recht (21)
- Department Linguistik (19)
- MenschenRechtsZentrum (18)
- Institut für Chemie (17)
- Philosophische Fakultät (16)
- Department Sport- und Gesundheitswissenschaften (15)
- Institut für Künste und Medien (15)
- Bürgerliches Recht (14)
- WeltTrends e.V. Potsdam (14)
- Institut für Biochemie und Biologie (12)
- Institut für Umweltwissenschaften und Geographie (11)
- Institut für Ernährungswissenschaft (10)
- Institut für Physik und Astronomie (9)
- Institut für Informatik und Computational Science (8)
- Strafrecht (8)
- Institut für Jüdische Studien und Religionswissenschaft (7)
- Hasso-Plattner-Institut für Digital Engineering gGmbH (6)
- Institut für Geowissenschaften (5)
- Institut für Slavistik (5)
- Kommunalwissenschaftliches Institut (3)
- Referat für Presse- und Öffentlichkeitsarbeit (3)
- Extern (2)
- Institut für Anglistik und Amerikanistik (2)
- Zentrum für Lehrerbildung und Bildungsforschung (ZeLB) (2)
- Department Grundschulpädagogik (1)
- Fachgruppe Politik- & Verwaltungswissenschaft (1)
- Fachgruppe Soziologie (1)
- Institut für Mathematik (1)
- Klassische Philologie (1)
- Moses Mendelssohn Zentrum für europäisch-jüdische Studien e. V. (1)
- Potsdam Transfer - Zentrum für Gründung, Innovation, Wissens- und Technologietransfer (1)
- Strukturbereich Bildungswissenschaften (1)
- Universitätsbibliothek (1)
- Verband für Patholinguistik e. V. (vpl) (1)
- Wirtschafts- und Sozialwissenschaftliche Fakultät (1)
- Zentrum für Qualitätsentwicklung in Lehre und Studium (ZfQ) (1)
Die statistische Analyse der Ertragslage öffentlicher Unternehmen bringt Informationen über die Ertragskraft dieser Unternehmensgruppe. Die erforderlichen Kennzahlen werden den Jahresabschlussbilanzen entnommen, die die amtliche Statistik in öffentlichen Unternehmen erhebt. Zunächst werden geeigneten Kennzahlen ausgewählt und definiert, für die einzelnen Unternehmen aufbereitet sowie für die Gesamtheit öffentlicher Unternehmen und ihre Klassen aggregiert. Sie werden in ihrer Entwicklung über den Zeitraum von 1999 bis 2006 analysiert und – unter starken Vorbehalten – mit analogen Kennzahlen in der privaten Wirtschaft verglichen. Die Vorbehalte ergeben sich daraus, dass sich Ziele und Bedingungen im öffentlichen Unternehmensbereich häufig von denen der privaten Wirtschaft unterscheiden, z. B. durch die stärkere Orientierung an öffentlichen Aufgaben als an betriebswirtschaftlicher Effizienz, durch die eingeschränkte Veräußerbarkeit des Vermögens und durch das geringere Risiko einer Insolvenz. Öffentliche Unternehmen haben im Mittel wegen der Spezifik ihrer Aufgaben und politisch determinierter Preise einen geringeren Umsatz als private Unternehmen. Im Vergleich zu privaten sind öffentliche Unternehmen auch durch eine höhere Zinselastizität, die mit einem hohen Verschuldungsgrad zusammenhängt, und eine höhere Abschreibungsintensität gekennzeichnet. Die letzte ist auf das umfangreiche öffentliche Vermögen zurückzuführen. Im Großen und Ganzen unterstreicht die statistische Analyse der Ertragslage die enge Verflechtung zwischen öffentlichen Unternehmen und öffentlichen Haushalten.
Die Analyse der Finanzlage öffentlicher Unternehmen bringt Informationen über die Kapitalbereitstellung und die Liquidität dieser Unternehmen. Die erforderlichen Kennzahlen werden den Jahresabschlussbilanzen entnommen, die die amtliche Statistik in öffentlichen Unternehmen erhebt. Zunächst werden geeigneten Kennzahlen ausgewählt und definiert, für die einzelnen Unternehmen aufbereitet sowie für die Gesamtheit öffentlicher Unternehmen und ihre Klassen aggregiert. Sie werden in ihrer Entwicklung über den Zeitraum von 1999 bis 2006 analysiert und – unter starken Vorbehalten – mit analogen Kennzahlen in der privaten Wirtschaft verglichen. Die Vorbehalte ergeben sich daraus, dass sich Ziele und Bedingungen im öffentlichen Unternehmensbereich häufig von denen der privaten Wirtschaft unterscheiden, z. B. durch die stärkere Orientierung an öffentliche Aufgaben als an betriebswirtschaftliche Effizienz, durch die eingeschränkte Veräußerbarkeit des Vermögens und durch das geringere Risiko einer Insolvenz. Dank der Kapitalzuführungen von der öffentlichen Hand haben öffentliche Unternehmen in Deutschland höhere und zunehmende Eigenkapital- und Rücklagenquoten im Vergleich zu privaten Unternehmen, während ihr durchschnittlicher Innenfinanzierungsgrad und ihre Kapitalrückflussquote unter denen im privaten Sektor liegen. Insgesamt wird durch die Analyse der Finanzlage die enge Verflechtung zwischen öffentlichen Unternehmen und öffentlichen Haushalten unterstrichen.
Die Identifikation von Einflussfaktoren und deren Wirkungsrichtung auf die Kursentwicklung einer Aktie ist von großer Bedeutung für die Finanzmarktanalyse. Die wechselseitigen Zusammenhänge zwischen den Renditen spezifischer Aktien sind solche relevante Informationen. In diesem Beitrag werden die Interdependenzen von Aktienrenditen auf der Grundlage vektorautoregressiver (VAR)-Modelle für kleine, homogene Brachen- und Marktsegmente analysiert. Hierzu wurden die Renditen ausgewählter im Deutschen Aktienindex (DAX) notierter Unternehmen zu drei Branchensegmenten zusammengefasst. Darüber hinaus zeigt sich am Beispiel der Hoechst-Aktie, dass eine gemeinsame DAX-Notierung Einfluss auf das Beziehungsgeflecht der Renditen innerhalb eines Brachensegmentes nimmt.
Mit dem vorliegenden Band „Nach Bologna: Praktika im Studium – Pflicht oder Kür? Empirische Analysen und Empfehlungen für die Hochschulpraxis“ von Wilfried Schubarth, Karsten Speck und Andreas Seidel wird die Reihe „Potsdamer Beiträge zur Lehrevaluation“ unter neuem Titel und veränderter inhaltlicher Schwerpunktsetzung fortgeführt. Die Umbenennung in „Potsdamer Beiträge zur Hochschulforschung“ versteht sich als ein Schritt hin zu einer thematischen Öffnung der Reihe für die verschiedensten Felder der Hochschulforschung. Der vorliegende Band widmet sich einem der zentralen Reformziele von Bologna: der Frage des Praxis- und Berufsbezugs und dabei insbesondere den Praxisphasen im Studium. Mit der Bologna-Reform werden im bildungspolitischen Bereich sehr vielfältige strukturelle und inhaltliche Ziele verfolgt. Das Ziel dieses Bandes besteht deshalb darin, empirische Forschungen zu Praxisbezügen und Praxisphasen im Studium vorzustellen, diese in den Kontext aktueller Debatten um Studienqualität und Studienreform zu stellen sowie Folgerungen für die Gestaltung von Praxisphasen abzuleiten. Inhaltliche Schwerpunkte bilden das BMBF-Forschungsprojekt ProPrax und die Praxisphasen im Lehramtsstudium. Die Beiträge dieses Bandes gehen aus einem gleichnamigen Workshop hervor, der am 1. Oktober 2010 in Potsdam stattfand.
Die Arbeit befasst sich theoretisch und empirisch mit der so genannten Public Service Motivation (PSM) und ihrem Zusammenhang zu anderen psychologischen Motivationstheorien. Die Public Service Motivation geht davon aus, dass öffentlich Beschäftigte unter anderem dadurch motiviert sind, dass sie in ihrer Arbeit einen Dienst am Gemeinwohl sehen. Auf Basis einer empirischen Erhebung konnte dieses Konstrukt auch für Beschäftigte in Deutschland nachgewiesen und der Einfluss soziodemographischer Variablen bestätigt werden. Darüber hinaus gibt die Arbeit erste Hinweise auf Zusammenhänge zu verschiedenen Prozesstheorien der Motivation. Empirisch zeigt sich vor allem zur Gleichheitstheorie und dem darauf aufbauenden Equity Sensitivity Construct ein starker Zusammenhang.
Von der Natur geschaffene Polymere faszinieren Polymerforscher durch ihre spezielle auf eine bestimmte Aufgabe ausgerichtete Funktionalität. Diese ergibt sich aus ihrer Bausteinabfolge uber die Ausbildung von Uberstrukturen. Dazu zählen zum Beispiel Proteine (Eiweiße), aus deren Gestalt sich wichtige Eigenschaften ergeben. Diese Struktureigenschaftsbeziehung gilt ebenso für funktionelle synthetische Makromoleküle. Demzufolge kann die Kontrolle der Monomersequenz in Polymeren bedeutend für die resultierende Form des Polymermoleküls sein. Obwohl die Synthese von synthetischen Polymeren mit der Komplexität und der Größe von Proteinen in absehbarer Zeit wahrscheinlich nicht gelingen wird, können wir von der Natur lernen, um neuartige Polymermaterialien mit definierten Strukturen (Sequenzen) zu synthetisieren. Deshalb ist die Entwicklung neuer und besserer Techniken zur Strukturkontrolle von großem Interesse für die Synthese von Makromolekülen, die perfekt auf ihre Funktion zugeschnitten sind. Im Gegensatz zu der Anzahl fortgeschrittener Synthesestrategien zum Design aus- gefallener Polymerarchitekturen – wie zum Beispiel Sterne oder baumartige Polymere (Dendrimere) – gibt es vergleichsweise wenig Ansätze zur echten Sequenzkontrolle in synthetischen Polymeren. Diese Arbeit stellt zwei unterschiedliche Techniken vor, mit denen die Monomersequenz innerhalb eines Polymers kontrolliert werden kann. Gerade bei den großtechnisch bedeutsamen radikalischen Polymerisationen ist die Sequenzkontrolle schwierig, weil die chemischen Bausteine (Monomere) sehr reaktiv sind. Im ersten Teil dieser Arbeit werden die Eigenschaften zweier Monomere (Styrol und N-substituiertes Maleinimid) geschickt ausgenutzt, um in eine Styrolkette definierte und lokal scharf abgegrenzte Funktionssequenzen einzubauen. Uber eine kontrollierte radikalische Polymerisationsmethode (ATRP) wurden in einer Ein-Topf-Synthese über das N-substituierte Maleinimid chemische Funktionen an einer beliebigen Stelle der Polystyrolkette eingebaut. Es gelang ebenfalls, vier unterschiedliche Funktionen in einer vorgegebenen Sequenz in die Polymerkette einzubauen. Diese Technik wurde an zwanzig verschiedenen N-substituierten Maleinimiden getestet, die meisten konnten erfolgreich in die Polymerkette integriert werden. In dem zweiten in dieser Arbeit vorgestellten Ansatz zur Sequenzkontrolle, wurde der schrittweise Aufbau eines Oligomers aus hydrophoben und hydrophilen Segmenten (ω-Alkin-Carbonsäure bzw. α-Amin-ω-Azid-Oligoethylenglycol) an einem löslichen Polymerträger durchgeführt. Das Oligomer konnte durch die geschickte Auswahl der Verknüpfungsreaktionen ohne Schutzgruppenstrategie synthetisiert werden. Der lösliche Polymerträger aus Polystyrol wurde mittels ATRP selbst synthetisiert. Dazu wurde ein Startreagenz (Initiator) entwickelt, das in der Mitte einen säurelabilen Linker, auf der einen Seite die initiierende Einheit und auf der anderen die Ankergruppe für die Anbindung des ersten Segments trägt. Der lösliche Polymerträger ermöglichte einerseits die schrittweise Synthese in Lösung. Andererseits konnten überschüssige Reagenzien und Nebenprodukte zwischen den Reaktionsschritten durch Fällung in einem Nicht-Lösungsmittel einfach abgetrennt werden. Der Linker ermöglichte die Abtrennung des Oligomers aus jeweils drei hydrophoben und hydrophilen Einheiten nach der Synthese.
Den Krieg um Afghanistan hat der Westen verloren – wieder einmal. Die Frage des Abzugs bestimmt die außen- und sicherheitspolitische Agenda, nicht nur in Washington D.C. und Berlin. Ziel ist, das "Fiasko Afghanistan" möglichst glimpflich enden zu lassen – aber wie? Die Frage hat auch 2011 nicht an Aktualität eingebüßt. Kenner der Region und außenpolitische Experten diskutieren im vorliegenden WeltTrends Papier die Ausgangslage des Afghanistan-Komplexes und analysieren Abzugsstrategien – klar, kontrovers, pointiert.
Die Beiträge des vorliegenden Sammelbandes gehen auf die wissenschaftliche Fachtagung „Grenzen der Toleranz. Rechtsextremes Milieu und demokratische Gesellschaft in Brandenburg - Bilanz und Perspektiven" zurück, die im Mai 2009 in Potsdam stattfand. Auf der Tagung hielten verschiedene Wissenschaftler Vorträge, die ihrerseits durch Praktiker/innen mittels „Kommentaren aus der Praxis“ gespiegelt wurden. Die meisten Vorträge der Tagung finden sich in diesem Band nun in überarbeiteter, in der Regel erweiterter und aktualisierter Form wieder. In einem Fall wurde ein Text aufgenommen, der aus einem längeren „Kommentar aus der Praxis“ entstanden ist. Die Beiträge kreisen um das Problem des Rechtsextremismus, seinen Erscheinungsformen und Praktiken in Brandenburg und darüber hinaus, und beleuchten die staatlichen und zivilgesellschaftlichen Gegenmaßnahmen und –strategien. Dabei wird deutlich: Brandenburg hat zwar noch ein Rechtsextremismusproblem - aber auch vielfältige Strategien und Erfahrungen in der erfolgreichen Auseinandersetzung mit diesem Phänomen.
Der vorliegende Beitrag knüpft an die in Potsdam seit 2001 durchgeführte Langzeitstudie an und untersucht die aktuelle Situation auf dem formellen Beteiligungsmarkt in Deutschland nach dem Ausbruch der Finanzkrise. Neben den allgemeinen Gegebenheiten des Marktes werden vor allem die Finanzierungsbedingungen sowie das Investitionsverhalten einzelner Beteiligungsgesellschaften analysiert. In den Jahren 2008 - 2009 zeigt sich einerseits eine weitestgehend unveränderte Struktur der Refinanzierungsquellen. Privatpersonen und Banken sowie der öffentliche Sektor nehmen weiterhin einen hohen Stellenwert ein. Andererseits werden deutliche Veränderungen der strukturellen Merkmale, wie auch im Investitionsverhalten einzelner Beteiligungsgesellschaften deutlich. Besonders auffällig für die Branche sind das Rationalisierungsbestreben beim Einsatz von Investmentmanagern sowie die zunehmende Spätphasenspezialisierung. Aus dem festgestellten Konsolidierungs- und Reifeprozess erwächst die Herausforderung und offene Frage, wie der Markt eine solche strukturelle Angebotslücke im Frühphasensegment begegnen will. Auch das Einwerben neuer Finanzmittel sowie die aktuellen Exit-Bedingungen werden in der vorliegenden Studie kritisch beleuchtet. Als ein reizvolles Instrument zur Reduzierung der aufgezeigten Problemfelder wird dabei die aktuell unterentwickelte Syndizierung von Beteiligungsinvestitionen angesehen. Die effizientere Ausgestaltung derartiger Finanzierungsstrukturen sollte dazu beitragen, dass das private Beteiligungskapital künftig stärker bei der Transformation betrieblicher Forschung und Entwicklung zum Einsatz gelangt.
Die Impuls-Antwort-Analyse – auch Schockanalyse genannt – stellt eine wichtige Möglichkeit der vertiefenden Analyse von vektorautoregressiven (VAR) Modellen dar. Bei der Schätzung der Impuls-Antwort-Folgen müssen die Zeitreiheneigenschaften der zugrundeliegenden Daten berücksichtigt werden. Weisen die Zeitreihen stochastische Trends auf und sind die Zeitreihen kointegriert, kann die Impuls-Antwort-Analyse auf der Basis eines kointegrierenden VAR-Modells (VECM) erfolgen. Pesaran und Shin (1998) entwickelten die verallgemeinerten (Generalized) Impuls-Antwort-Funktionen, um den Mangel der fehlenden Eindeutigkeit der orthogonalen Schockanalyse zu umgehen. Am Beispiel der Variablen einer Konsumfunktion für Deutschland werden die auf der Grundlage eines Vektor-Fehlerkorrekturmodells berechneten verallgemeinerten Impuls-Antwort-Folgen den orthogonalen gegenübergestellt.
Öffentliche Unternehmen werden in Adäquation zum wirtschaftlichen und politischen Verständnis an Hand des Finanz- und Personalstatistikgesetzes operationalisierbar definiert und sowohl gegenüber öffentlichen Behörden als auch gegenüber privaten Unternehmen abgegrenzt. Dabei wird gezeigt, dass keine Deckungsgleichheit, aber eine stückweise Überlappung mit dem Sektor Staat besteht. Dadurch gewinnt ein Teil der öffentlichen Unternehmen Bedeutung für die Volkswirtschaftliche Gesamtrechnung, insbesondere für den öffentlichen Schuldenstand und damit für die Konvergenzkriterien im Rahmen der Wirtschafts- und Währungsunion. Die amtliche Statistik gewinnt die Daten für die Statistik öffentlicher Unternehmen in Totalerhebung aus den Jahresabschlüssen dieser Unternehmen einschließlich ihrer Gewinn und Verlustrechnung. Die Statistik öffentlicher Unternehmen übertrifft damit in ihrer Ausführlichkeit und Tiefe die meisten anderen Fachstatistiken. Dem steht der Nachteil der relativ späten Verfügbarkeit gegenüber. Der Wissenschaft steht die Statistik in Form einer formal anonymisierten Datei an Wissenschaftlerarbeitsplätzen in den Forschungsdatenzentren der Statistischen Ämter des Bundes und der Länder zur Verfügung. Der Anonymisierungsprozess bedeutet eine weitere Verzögerung der Verfügbarkeit der Daten und steht zusammen mit strengen Geheimhaltungsvorschriften in den Forschungsdatenzentren im Widerspruch zur gebotenen Transparenz und der vorgeschriebenen Offenlegung der Bilanzen im öffentlichen Sektor.
Entsprechend der Zielstellung wurden zunächst verschiedene Varianten der Kompostierung von Holzsubstanz getestet, um eine optimale Technologie, die auch für Entwicklungsländer realisierbar ist, herauszufinden. Hierzu sind in Pflanztöpfe Holzspäne (Woodchips) von zwei verschieden Holzarten (Laub- und Nadelholz) gefüllt und mit verschiedenen natürlichen Stickstoffquellen gemischt worden. Diese Ansätze wurden regelmäßig mit Kompostwasser appliziert. Nach vier Wochen sind zwei verschiedene Wurmarten (Dendrobaena veneta und Eisenia fetida) hinzugegeben worden. Die Feuchthaltung erfolgte ab diesem Zeitpunkt durch Frischwasser. Die qualitativ beste Versuchsvariante ist im nächsten Schritt mit weiteren natürlichen Stickstoffquellen, die in Entwicklungsländern zur Verfügung gestellt werden könnten, getestet worden. Von allen Kompostvarianten sind im Labor eine Vielzahl von bodenphysikalischen (z.B. Dichte, Wasserhaltekapazität) und bodenchemischen Zustandsgrößen (z.B. Elektrische Leitfähigkeit, Totalgehalte biophiler Elemente, Bodenreaktion, organische Substanzgehalte, Kationenaustauschkapazität) bestimmt worden. Die Wiederum qualitativ beste Mischung ist in einer weiteren Versuchsreihe in verschiedenen Mengenverhältnissen mit tertiärerem Abraumsand des Braunkohlebergbaus gemischt worden. In diese Versuchsmischungen wurde die Grasmischung RSM 7.2.1 eingesät und regelmäßig bewässert sowie die Wuchshöhe gemessen. Nach 42 Tagen wurden das Gras geerntet und die biometrischen Parameter, die Nährstoffgehalte (pflanzenverfügbare Fraktionen), die Bodenreaktion, die effektive bzw. potentielle Kationenaustauschkapazität sowie die Pufferkapazitäten der Mischsubstrate bestimmt. Die nächsten Versuchsvarianten sind als Feldversuche in der Niederlausitz durchgeführt worden. Für ihre Realisierung wurde als weiterer Zuschlagsstoff Arkadolith® zugemischt. Die Plotflächen sind sowohl auf Abraumsanden des Tertiärs als auch Quartärs angelegt worden. In jeweils eine Subvariante ist RSM 7.2.1, in die andere eine autochthone Grasmischung eingesät worden. Diese Experimente wurden nach 6 Monaten beendet, die Bestimmung aller Parameter erfolgte in gleicher Weise wie bei den Gewächshausversuchen. Auf Basis aller Versuchsreihen konnten die besten Kompostqualitäten und ihre optimalen Herstellungsvarianten ermittelt werden. Eine weitere Aufgabe war es zu untersuchen, wie im Vergleich zur Verbrennung von Holzmasse die CO2-Emission in die Atmosphäre durch Holzkompostierung verringert werden kann. Hierzu wurde während der verschiedenen Kompostierungsvarianten die CO2-Freisetzung gemessen. Im Vergleich dazu ist jeweils die gleiche Masse an Holzsubstanz verbrannt worden. Die Ergebnisse zeigten, dass im Vergleich zu der thermischen Verwertung von Holsubstanz die CO2-Emission bis zu 50 % verringert werden kann. Dem Boden kann darüber hinaus energiereiche organische Substanz zugeführt werden, die eine Entwicklung der Bodenorganismen ermöglicht. Ein weiteres Experiment zielte darauf ab, die Stabilität der Holzkomposte zu bestimmen. Darüber hinaus sollte untersucht werden, ob durch die Zufuhr von pyrogenem Kohlenstoff eine Vergrößerung der Stabilität zu erreichen ist. Diese Untersuchungen wurden mit Hilfe der Thermogravimetrie vorgenommen. Alle wichtigen Kompostierungsvarianten sind sowohl mit verschiedenen Zusatzmengen als auch ohne Zusatz von pyrogenem Kohlenstoff vermessen worden. Als Vergleichssubstanz diente der Oberboden eines Niedermoorgleys, der naturgemäß einen relativ hohen Anteil an organischer Substanz aufweist. Die Ergebnisse zeigten, dass im Bereich niedriger Temperaturen die Wasserbindung im Naturboden fester ist. In der Fraktion der oxidierbaren organischen Substanz, im mittleren Temperaturbereich gemessen, ist die natürliche Bodensubstanz ebenfalls stabiler, was auf eine intensivere Bindung zwischen den organischen und anorganischen Bestandteilen, also auf stabilere organisch-mineralische Komplexe, schlussfolgern lässt. Im Bereich höherer Temperaturen (T> 550° C) waren im Naturboden keine nennenswerten organischen Bestandteile mehr nachweisbar. Hingegen wiesen die Kompostvarianten einen hohen Anteil stabiler Fraktionen, vor allem aromatische Verbindungen, auf. Diese Aussagen erscheinen vor allem für die praktische Anwendung der Holzkomposte in Hinblick auf ihre Langzeitwirkung bedeutsam. Der Zusatz von pyrogenem Kohlenstoff zeigte keine zusätzliche Stabilisierungswirkung.
Virtualisierung und Cloud Computing gehören derzeit zu den wichtigsten Schlagworten für Betreiber von IT Infrastrukturen. Es gibt eine Vielzahl unterschiedlicher Technologien, Produkte und Geschäftsmodelle für vollkommen verschiedene Anwendungsszenarien. Die vorliegende Studie gibt zunächst einen detaillierten Überblick über aktuelle Entwicklungen in Konzepten und Technologien der Virtualisierungstechnologie – von klassischer Servervirtualisierung über Infrastrukturen für virtuelle Arbeitsplätze bis zur Anwendungsvirtualisierung und macht den Versuch einer Klassifikation der Virtualisierungsvarianten. Bei der Betrachtung des Cloud Computing-Konzepts werden deren Grundzüge sowie verschiedene Architekturvarianten und Anwendungsfälle eingeführt. Die ausführliche Untersuchung von Vorteilen des Cloud Computing sowie möglicher Bedenken, die bei der Nutzung von Cloud-Ressourcen im Unternehmen beachtet werden müssen, zeigt, dass Cloud Computing zwar große Chancen bietet, aber nicht für jede Anwendung und nicht für jeden rechtlichen und wirtschaftlichen Rahmen in Frage kommt.. Die anschließende Marktübersicht für Virtualisierungstechnologie zeigt, dass die großen Hersteller – Citrix, Microsoft und VMware – jeweils Produkte für fast alle Virtualisierungsvarianten anbieten und hebt entscheidende Unterschiede bzw. die Stärken der jeweiligen Anbieter heraus. So ist beispielsweise die Lösung von Citrix für Virtual Desktop Infrastructures sehr ausgereift, während Microsoft hier nur auf Standardtechnologie zurückgreifen kann. VMware hat als Marktführer die größte Verbreitung in Rechenzentren gefunden und bietet als einziger Hersteller echte Fehlertoleranz. Microsoft hingegen punktet mit der nahtlosen Integration ihrer Virtualisierungsprodukte in bestehende Windows-Infrastrukturen. Im Bereich der Cloud Computing-Systeme zeigen sich einige quelloffene Softwareprojekte, die durchaus für den produktiven Betrieb von sogenannten privaten Clouds geeignet sind.
"Forschung meets Business" - diese Kombination hat in den vergangenen Jahren immer wieder zu zahlreichen interessanten und fruchtbaren Diskussionen geführt. Mit dem Symposium "Sicherheit in Service-orientierten Architekturen" führt das Hasso-Plattner-Institut diese Tradition fort und lud alle Interessenten zu einem zweitägigen Symposium nach Potsdam ein, um gemeinsam mit Fachvertretern aus der Forschung und Industrie über die aktuellen Entwicklungen im Bereich Sicherheit von SOA zu diskutieren. Die im Rahmen dieses Symposiums vorgestellten Beiträge fokussieren sich auf die Sicherheitsthemen "Sichere Digitale Identitäten und Identitätsmanagement", "Trust Management", "Modell-getriebene SOA-Sicherheit", "Datenschutz und Privatsphäre", "Sichere Enterprise SOA", und "Sichere IT-Infrastrukturen".
Bei der Entdeckung der Glutathionperoxidase-2 (GPx2) wurde zunächst davon ausgegangen, dass die Funktion dieses Enzyms im Kryptengrund des Colons einzig in der Reduktion von H2O2 besteht. Im Laufe der weiteren Erforschung zeigte sich, dass GPx2 auch in verschiedenen Tumorgeweben vermehrt exprimiert wird. Dabei wird diskutiert, ob die Wirkung von GPx2 im Tumor eher als pro- oder als antikarzinogen einzustufen ist. Mehrere Experimente in vitro und in vivo zeigten antiinflammatorische Eigenschaften der GPx2. Aufgrund dieser Befunde wird derzeit über weitere Funktionen der GPx2 spekuliert. In dieser Arbeit wurde die physiologische Funktion von GPx2 näher erforscht, dazu wurden Wildtyp- und GPx2-Knockout-Mäuse in Hinblick auf Veränderungen der Enzymexpression und der Colonmorphologie untersucht. Es wurden drei verschiedene Selendiäten verfüttert: selenarmes, selenadäquates und selensupplementiertes Futter. Unter physiologischen Bedingungen ist am Kryptengrund des Colons, innerhalb der proliferierenden Zone, die Mitoserate am höchsten. Der Großteil der apoptotischen Zellen ist hingegen an der Kryptenspitze vorzufinden. Durch den Knockout von GPx2 kam es zu einer signifikanten Erhöhung der Apoptoserate am Kryptengrund. Dabei war der größte Effekt auf selenarmem Futter zu verzeichnen. Hierbei wurde sogar eine Veränderung der Colonmorphologie dokumentiert, da die Verschiebung der Proliferationszone in Richtung Kryptenspitze eine Verlängerung der Krypten nach sich zog. Im Wildtyp wurden keine Apoptosen im Kryptengrund detektiert. GPx1 wird unter physiologischen Bedingungen im Gegensatz zur GPx2 in der Kryptenspitze exprimiert und ist im Selenmangel nicht mehr detektierbar. Der Knockout von GPx2 erhöhte die GPx1-Expression im Kryptengrund auf allen drei Selendiäten. Diese Überexpression von GPx1 am Kryptengrund soll vermutlich den Verlust von GPx2 an dieser Stelle kompensieren. Da jedoch dort die massive Apoptoserate detektiert wurde, kann die GPx1 nicht die komplette Funktion von GPx2 kompensieren. Diese Ergebnisse deuten darauf hin, dass die Funktion von GPx2 nicht nur in der Reduktion von H2O2 liegt. Vielmehr kann eine Rolle bei der Aufrechterhaltung der Homöostase von Zellen postuliert werden. Ein weiterer Bestandteil dieser Arbeit war die Klärung der Frage, welchen Einfluss GPx2 auf die entzündungsassoziierte Colonkarzinogenese ausübt. In dem hierfür verwendeten AOM/DSS-Model wird der karzinogene Prozess durch Entzündung vorangetrieben. Es erfolgte sowohl im Wildtyp als auch im GPx2-Knockout zum einen die Bewertung des Entzündungsstatus des Colons und zum anderen wurde die Anzahl von ACF und Tumoren verglichen. Das Colon im GPx2-Knockout war wesentlich stärker entzündet als im Wildtyp. Diese Ergebnisse bestätigen die für die GPx2 postulierte antiinflammatorische Funktion. Normalerweise führt eine Erhöhung der Mitoseanzahl zur Regeneration des entzündeten Gewebes. Jedoch beeinflusst der Verlust von GPx2 vermutlich den Ablauf der Entzündung, indem beispielsweise die Regeneration des Gewebes durch die enorm hohe Apoptoserate am Kryptengrund verlangsamt wird. Des Weiteren hatten sich im GPx2-Knockout tendenziell mehr Tumore entwickelt. Somit korrelierte die Entzündung des Colons mit der Entwicklung von Tumoren. Der Verlust von GPx2 begünstigte vermutlich sowohl die Tumorinitiation als auch die Tumorprogression. Allerdings stimulierte die Expression von GPx2 ebenfalls das Tumorwachstum. Es kann geschlussfolgert werden, dass eine adäquate GPx2-Expression vor Entzündung schützt und somit das Risiko für Colonkrebs senkt. Ob GPx2 aber insgesamt pro- oder antikarzinogen wirkt, hängt vermutlich vom Stadium des Colonkarzinogenese ab.
Kennen Sie Randegg?
(2011)
Seit seiner berühmt-berüchtigten Friedenspreisrede von 1998 nimmt die Anzahl der literaturwissenschaftlichen und -politischen Publikationen, die Martin Walsers Werk eine nationalistische und antisemitische Tendenz unterstellen, zu. Bisweilen wird behauptet, Walser suche über die Ausschließung des Jüdischen das Nationale zu stärken und postuliere die Unversöhnlichkeit von Tätergemeinschaft und Opfergemeinschaft nach 1945. Das bislang in der Forschung wenig beachtete Hörspiel „Das Gespenst von Gattnau“ lässt die Annahme einer anderen Tendenz zu: die Tendenz zur Versöhnung.
Die vorliegende Arbeit beschäftigt sich mit der Fragestellung, ob die Frühgeburtlichkeit eine Auswirkung auf den Spracherwerb im ersten Lebensjahr hat. Insbesondere wurde der Frage nachgegangen, ob sich die Verarbeitung der rhythmisch-prosodischen Eigenschaften von Sprache im ersten Lebensjahr und deren weitere Ausnutzung für die Entwicklung des Lexikons bei sehr untergewichtigen Deutsch lernenden Frühgeborenen im Vergleich zu Reifgeborenen unterscheidet. Die besondere Spracherwerbssituation Frühgeborener liefert weitere Erkenntnisse bezüglich der Frage, inwieweit der frühe Spracherwerb durch prädeterminierte reifungsbedingte Mechanismen und Abläufe bestimmt wird und inwieweit dessen Verlauf und die relevanten Erwerbsmechanismen durch individuelle erfahrungsabhängige Faktoren beeinflusst werden. Damit liefern die Ergebnisse auch einen weiteren Beitrag zur Nature-Nurture-Diskussion.
Das vorliegende Buch vergleicht Strategien biologischer Systeme mit militärischen Strategien. Die zentrale Fragestellung ist dabei darauf gerichtet, ob es neben systemischen Gemeinsamkeiten auch gemeinsame oder ähnliche Strukturmuster und ähnliche Prozessabläufe beispielsweise sowohl im biologischen Abwehrmechanismus des Immunsystems und bei Insektenstaaten als auch bei Prozessen im Militär gibt. Vor diesem Hintergrund klaffen in der Theorie der Strategie, speziell in den Militärwissenschaften Lücken, denn der Systemansatz wird nicht konsequent beachtet, wie in diesem Buch mehrfach nachgewiesen ist. Von einem allgemeinen Verständnis der Strategie als bewusstem planerischem Vorgehen ist Abstand zu nehmen. Ausgehend von der Methode der Analogie und des Vergleichs wird im theoretischen Teil dieses Buches die Allgemeine Systemtheorie erläutert. Dabei werden der Begriff der Strategie ebenso wie die Begriffe Struktur und Prozess und Ansätze aus der Kriegsphilosophie von Clausewitz untersucht. Den Ausgangspunkt und schließlich auch wieder den Endpunkt der Überlegungen bilden neben dem notwendigen weiten Verständnis von Strategie, vor allem der Begriff der Organisation, ihrer Umwelt und der in diesem Zusammenhang bestehenden Wechselwirkung. Sowohl die Wechselwirkung von Umwelt und System als auch ihre Abhängigkeit durch strukturelle Kopplung werden beschrieben. Das Zusammenspiel und die daraus entstehende Komplexität der fünf Komponenten der Wahrnehmung, der Information und der Führung im Zusammenhang der Komponenten von Raum und Zeit in einem sozialen System lassen die klassische Ziel-Mittel-Zweck-Beziehung Clausewitz´scher Strategiedefinition verkürzt erscheinen. Anhand eines kurzen Rekurses der Methoden der Sozialen Netzwerkanalyse (SNA) wird der breite und tiefgehende Analyserahmen der Messung und Transparenzerreichung in Organisationen vorgestellt. Die SNA wird als Ausprägung der Netzwerk- und Graphentheorie, in die Allgemeine Systemtheorie integriert. Sie bildet eine zukunftsweisende Methode der Untersuchung von Netzwerken wie etwa dem Internet (Facebook, Xing etc.). Der aufgezeigte Theorierahmen bildet dabei zugleich eine Methode für den Systemvergleich und kann als Vorgehensmodell künftiger Strategieentwicklung genutzt werden. Der anschließende Systemvergleich wird mit mehreren Beispielen durchgeführt. Ausgehend von der Zelle als Grundeinheit werden Strukturen und Prozesse des Immunsystems mit solchen in militärischen Strukturen, weil sie im Lauf der Evolution enorme Leistungen in Reaktion, Anpassung und Optimierung vollbracht haben. Der Vergleich geht der Frage nach, ob in diesen Bereichen der Strategie und Organisation systemische Grundregeln existieren. Das Beispiel der Wechselwirkung zwischen Parasit und Wirt zeigt, dass jeder Fortschritt und Sieg angesichts der Systemeinbettung von Strategie nur relativ wirken kann. Die Analogie zwischen Viren und Bakterien sowie die Entwicklung des Begriffs der sozialen Mimikry führen zu einem erweiterten Verständnis der Strategie von Terroristen in sozialen Systemen. Verdeutlicht wird das Grundschema des Täuschens und Eindringens in Systeme sowie die Beeinflussung und Umsteuerung von Prozessen und Strukturen in einem System durch Kommunikation und Implementation von Codes. Am Beispiel des Immunsystems und der Bildung verschiedener Kommunikations- und Steuerungsmechanismen von Zellsystemen sowie Beispielen von Schwarmbildung und der Organisation sozialer Insekten werden eine Vielzahl heuristischer Hinweise für neue Ansätze für die Organisation von Streitkräften und ihrer Steuerung gefunden. Neben der Erarbeitung eines grundlegenden Strategiebegriffs anhand von Wahrnehmung und Selektion als Grundprozess der Erzeugung von Strategie wird eine differenzierte Betrachtung von Begriffen wie Redundanz und Robustheit sowie eine relativierende Sichtweise von Risiko, Gefahr und Schaden gewonnen. Der Vergleich mit dem Immunsystems zeigt einfache Beispiele der Informationsspeicherung und -übertragung, die zudem Bypassfähigkeiten sowie dezentrale Eskalations- und Deeskalationsprinzipien veranschaulichen. Dies eröffnet in Analogie dieser Prinzipien einen weiten Raum Sicherheitsarchitekturen zu überdenken und neu zu strukturieren. Zudem kann die räumliche Ausbreitung von Information und Kräften als ein gemeinsames Grundproblem der Entwicklung und Wirksamkeit von Strategien sowohl in der Natur, als auch im Militär identifiziert werden. Die Betrachtung zeigt zudem wie Zellen mit fehlgeleiteten Prozessen und Strukturen umgehen. Die Analogie deutet auf das Erfordernis einer Veränderung im Umgang mit Fehlern und ihrer Rückführ- und Umkehrbarkeit im weitesten Sinne. Das Buch eröffnet überdies ein neues Verständnis von Staat, Gewaltenteilung und Institutionen in einem sozialen System. Die Ergebnisse sind auch auf andere Forschungsbereiche, Organisationen und unterschiedlichste soziale Systeme übertragbar. Es eröffnet sich ein breites Anwendungsspektrum für künftige strategische Untersuchungen.
Wissenschaftler sind regelmäßig mehr an Forschung interessiert als an Lehre. Dies hat verschiedene Gründe, auf die hier nicht im Einzelnen eingegangen werden soll. Einer dieser Gründe liegt im eigenen Professionsverständnis als Forscher/in bzw. Wissenschaftler/in begründet. Im Kern geht es dabei um Entdeckungen, um Innovationen, um die Weiterentwicklung vorhandenen Wissens. Lehre wird dem gegenüber als intermediärer Bereich gesehen, in dem vorhandenes Wissen reproduziert wird, der deshalb mehr dem Berufssystem zugehörig ist und weniger dem Wissenschaftssystem (Fangmann 2006, S. 30). Lehre erscheint deshalb als Belastung, die mit Forschung nicht korrespondiert, eher von Forschung abhält, insbesondere wenn Studierende den eigenen Lehrbemühungen passiv gegenüberstehen und der Ertrag der Lehre zweifelhaft erscheint. Im Folgenden soll die Verwandtschaft von Forschung und Lernen dargestellt und auf ihre korrespondierenden Logiken verwiesen werden. Grundlage dafür ist ein lerntheoretisches Modell, das Lernen subjekttheoretisch als soziales Handeln konzipiert (Holzkamp 1993), das mit Forschen vergleichbar ist. Forschungsbasierte Lehre wird im Kontext einer subjekttheoretischen Didaktik (Ludwig 2006) als Lehre im Format der Forschung vorgestellt, die Lernen unterstützen kann, weil Lernen dem Forschungsprozess ähnelt. Typen, Erträge und Umsetzungsprobleme forschungsbasierter Lehre werden kurz skizziert.