Refine
Has Fulltext
- yes (274) (remove)
Year of publication
- 2012 (274) (remove)
Document Type
- Article (128)
- Doctoral Thesis (38)
- Monograph/Edited Volume (27)
- Review (25)
- Postprint (21)
- Part of Periodical (14)
- Other (10)
- Master's Thesis (9)
- Conference Proceeding (1)
- Habilitation Thesis (1)
Language
- German (274) (remove)
Keywords
- Nachhaltigkeit (18)
- Politik (18)
- Wirtschaft (18)
- Zukunft (18)
- economy (18)
- future (18)
- politics (18)
- society (18)
- sustainability (18)
- Dysphagie (17)
Institute
- WeltTrends e.V. Potsdam (37)
- MenschenRechtsZentrum (31)
- Extern (29)
- Vereinigung für Jüdische Studien e. V. (24)
- Institut für Jüdische Studien und Religionswissenschaft (22)
- Department Linguistik (19)
- Zentrum für Sprachen und Schlüsselkompetenzen (Zessko) (18)
- Arbeitskreis Militär und Gesellschaft in der Frühen Neuzeit e. V. (17)
- Institut für Romanistik (14)
- Institut für Biochemie und Biologie (12)
Mit der Liberalisierung des Strommarkts, den unsicheren Aussichten in der Klimapolitik und stark schwankenden Preisen bei Brennstoffen, Emissionsrechten und Kraftwerkskomponenten hat bei Kraftwerksinvestitionen das Risikomanagement an Bedeutung gewonnen. Dies äußert sich im vermehrten Einsatz probabilistischer Verfahren. Insbesondere bei regulativen Risiken liefert der klassische, häufigkeitsbasierte Wahrscheinlichkeitsbegriff aber keine Handhabe zur Risikoquantifizierung. In dieser Arbeit werden Kraftwerksinvestitionen und -portfolien in Deutschland mit Methoden des Bayes'schen Risikomanagements bewertet. Die Bayes'sche Denkschule begreift Wahrscheinlichkeit als persönliches Maß für Unsicherheit. Wahrscheinlichkeiten können auch ohne statistische Datenanalyse allein mit Expertenbefragungen gewonnen werden. Das Zusammenwirken unsicherer Werttreiber wurde mit einem probabilistischen DCF-Modell (Discounted Cash Flow-Modell) spezifiziert und in ein Einflussdiagramm mit etwa 1200 Objekten umgesetzt. Da der Überwälzungsgrad von Brennstoff- und CO2-Kosten und damit die Höhe der von den Kraftwerken erwirtschafteten Deckungsbeiträge im Wettbewerb bestimmt werden, reicht eine einzelwirtschaftliche Betrachtung der Kraftwerke nicht aus. Strompreise und Auslastungen werden mit Heuristiken anhand der individuellen Position der Kraftwerke in der Merit Order bestimmt, d.h. anhand der nach kurzfristigen Grenzkosten gestaffelten Einsatzreihenfolge. Dazu wurden 113 thermische Großkraftwerke aus Deutschland in einer Merit Order vereinigt. Das Modell liefert Wahrscheinlichkeitsverteilungen für zentrale Größen wie Kapitalwerte von Bestandsportfolien sowie Stromgestehungskosten und Kapitalwerte von Einzelinvestitionen (Steinkohle- und Braunkohlekraftwerke mit und ohne CO2-Abscheidung sowie GuD-Kraftwerke). Der Wert der Bestandsportfolien von RWE, E.ON, EnBW und Vattenfall wird primär durch die Beiträge der Braunkohle- und Atomkraftwerke bestimmt. Erstaunlicherweise schlägt sich der Emissionshandel nicht in Verlusten nieder. Dies liegt einerseits an den Zusatzgewinnen der Atomkraftwerke, andererseits an den bis 2012 gratis zugeteilten Emissionsrechten, welche hohe Windfall-Profite generieren. Dadurch erweist sich der Emissionshandel in seiner konkreten Ausgestaltung insgesamt als gewinnbringendes Geschäft. Über die Restlaufzeit der Bestandskraftwerke resultiert ab 2008 aus der Einführung des Emissionshandels ein Barwertvorteil von insgesamt 8,6 Mrd. €. In ähnlicher Dimension liegen die Barwertvorteile aus der 2009 von der Bundesregierung in Aussicht gestellten Laufzeitverlängerung für Atomkraftwerke. Bei einer achtjährigen Laufzeitverlängerung ergäben sich je nach CO2-Preisniveau Barwertvorteile von 8 bis 15 Mrd. €. Mit höheren CO2-Preisen und Laufzeitverlängerungen von bis zu 28 Jahren würden 25 Mrd. € oder mehr zusätzlich anfallen. Langfristig erscheint fraglich, ob unter dem gegenwärtigen Marktdesign noch Anreize für Investitionen in fossile Kraftwerke gegeben sind. Zu Beginn der NAP 2-Periode noch rentable Investitionen in Braunkohle- und GuD-Kraftwerke werden mit der auslaufenden Gratiszuteilung von Emissionsrechten zunehmend unrentabler. Die Rentabilität wird durch Strommarkteffekte der erneuerbaren Energien und ausscheidender alter Gas- und Ölkraftwerke stetig weiter untergraben. Steinkohlekraftwerke erweisen sich selbst mit anfänglicher Gratiszuteilung als riskante Investition. Die festgestellten Anreizprobleme für Neuinvestitionen sollten jedoch nicht dem Emissionshandel zugeschrieben werden, sondern resultieren aus den an Grenzkosten orientierten Strompreisen. Das Anreizproblem ist allerdings bei moderaten CO2-Preisen am größten. Es gilt auch für Kraftwerke mit CO2-Abscheidung: Obwohl die erwarteten Vermeidungskosten für CCS-Kraftwerke gegenüber konventionellen Kohlekraftwerken im Jahr 2025 auf 25 €/t CO2 (Braunkohle) bzw. 38,5 €/t CO2 (Steinkohle) geschätzt werden, wird ihr Bau erst ab CO2-Preisen von 50 bzw. 77 €/t CO2 rentabel. Ob und welche Kraftwerksinvestitionen sich langfristig rechnen, wird letztlich aber politisch entschieden und ist selbst unter stark idealisierten Bedingungen kaum vorhersagbar.
Aufbauend auf neuen Zugängen zu der Ende der 1970er Jahren entstandenen Regulationstheorie, die die Strukturen und Prozesse kapitalistischer Funktionsweise mit Elementen von Akkumulationsregimen, Regulation und Krise erklärt, werden von der Autorin sowohl der klassische Zugang als auch dessen Adaptionen auf verschiedene andere sozialwissenschaftliche Theorieansätze - wie z. B. dem Neo-Gramscianismus - kritisch hinterfragt. Aus dem Blickwinkel der Entwicklungsforschung und unter Hinzuziehung verschiedener Beispiele gegenwärtiger gesellschaftlicher Transformationsprozesse und emanzipatorischer Experimente in Lateinamerika wird aufgezeigt, dass die Regulationstheorie nach wie vor eine wertvolle Analysegrundlage für den gegenwärtigen Kapitalismus darstellt, jedoch einer Schwerpunktverlagerung bedarf.
Die gewaltigen Strukturveränderungen im Bereich des Gesundheitswesens, die in den letzten Jahren bereits erfolgten und die, die noch bevorstehen, zwingen Unternehmen, mit geplanten und gesteuerten Veränderungsprozessen die Voraussetzungen für eine kontinuierliche Anpassung an die neuen Gegebenheiten zu schaffen und somit ihre Zukunftsfähigkeit sicherzustellen. Vor diesem Hintergrund wird gezeigt, wie das Excellence-Modell der EFQM als Instrument für Veränderungsprozesse eingesetzt werden kann und es geeignet ist, Veränderungsziele zu definieren und die Zielerreichung zu bewerten. Referenzobjekt der Fallstudienanalyse, die einen Zeitraum von 13 Jahren umfasst, ist der Medizinische Dienst der Krankenversicherung Rheinland-Pfalz. Neben der Analyse und Darstellung von theoretischen Grundlagen wird an einem Unternehmen des Gesundheitswesens beispielhaft gezeigt, wie die Umsetzung in der Praxis unter Einsatz des EFQM-Modells erfolgen kann. Da das EFQM-Modell mit seiner Systematik unternehmensunabhängig eingesetzt werden kann, sind Lern- und Übertragungsmöglichkeiten strukturiert möglich. Es wird der Nachweis erbracht, dass sich das EFQM-Modell im Rahmen eines Management- und Qualitätssteue-rungsmodells als Universalmethode nutzen lässt, sofern das Management über die Kompe-tenz branchenspezifischer Anpassung verfügt. Auf dem Weg zu organisatorischer Excel-lence wird gezielt an Planungs- und Prognosetechniken des strategischen Managements (SWOT, Szenario-Analyse, Portfolio-Analyse) angeknüpft und auf das VRIO-Paradigma des Resource-based View Bezug genommen. Das EFQM-Modell wird dem Stresstest des ressourcenstrategischen Ansatzes unterzogen, um so zu zeigen, dass es sich beim EFQM-Modell um ein einzigartiges, schwer imitierbares, kaum zu substituierendes, organisatorisch verankertes und kundennutzen-stiftendes Er-folgspotenzial handeln kann. Die Arbeit liefert Impulse und konkrete Anregungen, die zu einem hohen managementprakti-schen Erkenntniszuwachs für den erfolgreichen Umgang mit dem EFQM-Modell und dem Einsatz von Qualitätsmanagementsystemen führen können.
rezensiertes Werk: Diana Matut: Dichtung und Musik im frühneuzeitlichen Aschkenas : Ms. opp. add. 4o 136 der Bodleian Library, Oxford (das so genannte Wallich-Manuskript) und Ms. hebr. oct. 219 der Stadt- und Universitätsbibliothek, Frankfurt a. M. (2 Bände). - (Studies in Jewish History and Culture ; 29). Leiden [u.a.]: Brill, 2011. - 461 S. ISBN (Set) 978-90-04-18194-6 ISBN (Band I) 978-90-04-20598-7 ISBN (Band II) 978-90-04-20599-4
„Der kluge Spieler und die Ethik des Computerspielens“ ist eine moralphilosophische Analyse der sogenannten „Killerspiel-Diskussion“. Als Aufhänger dient der Amoklauf von Winnenden, in dessen Nachgang Diskussionen über Computerspiele, speziell solche mit gewalthaltigem Inhalt, aufkamen. In der öffentlichen Meinung wird häufig davon ausgegangen, dass das Spielen solcher Computerspiele auch in der Realität zu gewalttätigem Verhalten führt. Einige Politiker stellen diese Spiele sogar mit Kinderpornographie gleich. Mithilfe dreier bekannter normativer ethischer Theorien – dem Konsequentialismus (Mill), der Deontologie (Kant) und der Tugendethik (Aristoteles) – werden die wissenschaftlichen Argumente contra Computerspiele analysiert und bewertet. Die Computerspielgegner konzentrieren sich auf den Inhalt und die grafische Darstellung der Spiele (narratologischer Ansatz). Am Ende einer ausführlichen Darstellung ihrer Argumente stellt sich heraus, dass keines davon haltbar ist, wenn man die ethischen Theorien auf sie anwendet. Einzig der tugendethische Ansatz scheint Ansätze zu bieten, auf denen man aufbauen kann, allerdings nicht gegen, sondern für Spiele. Diesem wird im zweiten Teil des Buches nachgegangen. Miguel Sicarts Werk „The Ethics of Computer Games“ versucht, eine konkrete Ethik des Computerspiels zu entwickeln. In „Der kluge Spieler und die Ethik des Computerspielens“ wird Sicarts Werk zum ersten Mal im Deutschen vorgestellt, in seine einzelnen Bestandteile zerlegt und re-strukturiert. In Sicarts Ethik-Konzept für Computerspiele werden die Inhalte und die Grafik der Computerspiele komplett außen vor gelassen. Sein Ansatz ist ein ludologischer (spielwissenschaftlicher), der das Regelwerk und System der Spiele in den Vordergrund schiebt. Die drei Kernelemente seiner Theorie werden dargestellt: 1. das Computerspiel als moralisches Objekt, 2. der Computerspieler als moralisches Subjekt und 3. das Computerspielen als moralische Handlung. Diese drei Aspekte wirken zusammen und miteinander. Es entsteht eine Wechselwirkung zwischen dem Spiel und dem Spieler, in den auch das Nicht-Spieler-Subjekt einbezogen wird. Ein Mensch spielt ein Computerspiel und wird dadurch zum Spieler dieses Spiels. Er nimmt das Regelwerk auf und ruft seine vorhandene Erfahrung aus früheren Spielen ab, um somit ein möglichst gelungenes Spielen zu bewerkstelligen. Damit ist gemeint, dass er nicht schummelt, dass er keine Tricks anwendet, dass er in Mehrspielerspielen Fairplay walten lässt etc. Zusätzlich ist dieser Spieler aber nicht nur ein Spieler, sondern er befindet sich in sozialen Kontexten, hat Werte und Ansichten und diese fließen in sein Spieler-Repertoire ein. In solch einer Wechselwirkung verhält sich der Spieler moralisch korrekt, wenn er dem Spiel zu dem verhilft, was es ist: eine Erfahrung. Das Spiel ist nämlich zweierlei: 1. Das Objekt, also eine CD in einer Hülle mit einer Spielanleitung etc. 2. Das Spiel, das am Bildschirm tatsächlich erfahren wird, indem es gespielt wird. Sieht das Spiel eine gewalthaltige Lösung vor, ist es in Sicarts Ethik des Computerspiels moralisch richtig, diese zu vollziehen. Was Sicart mit seiner Theorie letztendlich zeichnet, ist das Bild eines „klugen Spielers“. Der dritte Teil des Buches analysiert Sicarts Ethik des Computerspiels und zeigt mithilfe eines praktischen Beispiels seine Schwachstelle auf. Während die Computerspielgegner sich ausschließlich auf den Inhalt und die Grafik konzentrieren, ignoriert Sicart sie gänzlich. Somit stellen beide Ansätze Extrempositionen dar. Sicarts Ansatz wird in eine „Ethik des Computerspielens“ uminterpretiert und anschließend auf die Diskussionen rund um den Amoklauf von Winnenden angewendet. Dadurch können die Ausgangsargumente gegen Killerspiele endgültig wissenschaftlich widerlegt werden. Im letzten Teil des Buches wird die Brücke zum tugendethischen Ansatz des Aristoteles geschlagen: der gemäßigte Mittelweg führt zu einem guten Leben. Eine komplette Computerspielethik muss beide Aspekte beinhalten: den grafisch-inhaltlichen („narratologischen“) und den spieltechnischen („ludologischen“) Ansatz. Nur im Zusammenspiel beider kann eine umfassende Computerspielethik gesucht und gefunden werden. Hierzu wird ein Grundgerüst vorgeschlagen sowie zwei Ideen, welche für weitere Forschung auf dem Gebiet verwendet werden können.
In older research literature, the prose epics emerging from the court of Elisabeth of Lorraine and Nassau-Saarbrücken have repeatedly been accused of lacking structure and literariness. By contrast, this article shows that narrative principles of seriality generate the complex structure of the voluminous ›Loher und Maller‹: literary strategies of repetition and variation organize the text on different levels. Recurring narrative structures, thematic constellations and motivations as well as lexical stereotypes are part of this comprehensive principle of seriality. Not triviality and insufficiency, but structural and narrative complexity and lexical accumulation of significance characterize ›Loher und Maller‹.
In den letzten 20 Jahren sind Evaluationen Schritt für Schritt zu einem festen und gleichzeitig kontrovers diskutierten Bestandteil politischer Förderung geworden. Auf der Basis langjähriger Beobachtungen der Evaluationspraxis des Förderprogramms „Soziale Stadt“ zeigt dieses Buch zunächst, dass Evaluationstätigkeiten in Ministerien, Kommunalverwaltungen und Planungsbüros mit ganz unterschiedlichen Erwartungen, Herausforderungen, Widersprüchen und Irritationen verknüpft werden. Evaluationen werden dabei sowohl als Hoffnungsträger, als auch als Schreckgespenst gesehen. Der Autor nimmt diese Beobachtungen zum Anlass, den Umgang mit Evaluationen in politischen Organisationen kritisch zu hinterfragen und systematisch zu erklären. Reduziert auf die Frage „Wozu Evaluation?“ wird auf der Basis eines systemtheoretischen Zugangs erklärt, welche unterschiedlichen Funktionen Evaluationen in Organisationen erfüllen können. Vertiefend wird dabei auf organisationales Lernen, auf politische Steuerungslogik und auf die Notwendigkeit von Symbolisierungen eingegangen.
Dario Fos "Morte accidentale di un anarchico" und seine Adaptationen in Frankreich und Deutschland
(2012)
Dario Fo (Nobelpreis 1997) ist einer der herausragendsten Erneuerer des italienischen Theaters des 20. Jahrhunderts. Ein Überblick über die wichtigsten Stationen seines künstlerischen Schaffens zeugt zunächst von Fos stetem Bemühen um innovative Ansätze in Bezug auf Theaterkonzeption und –praxis: immer gilt es, sich von den Konventionen des literarischen, bürgerlichen, subventionierten, weitgehend passiv rezipierten Theaters abzugrenzen und das Theater für das Publikum wieder ganzheitlich erfahrbar zu machen. Doch nicht selten geraten er und seine Truppe dabei in Konflikt mit den herrschenden politischen und gesellschaftlichen Umständen. Dies trifft auch auf sein Stück "Morte accidentale di un anarchico" (1970) zu, dessen Analyse im Zentrum dieser Arbeit steht. Ein realhistorischer Fall, der "Fall Pinelli" (bzw. "la strage di Piazza Fontana") 1969, diente Fo als Grundlage seiner sehr zeitnah entstandenen grotesken Farce, die aufgrund ihrer politischen Brisanz für Aufruhr sorgte und die auch im Ausland bis heute immer wieder auf den Spielplänen zu finden ist. Die Arbeit geht daher nicht nur auf die Produktion, Inszenierung und Rezeption des Stücks in Italien ein, sondern nimmt auch die Adaptationen und deren Rezeption in Frankreich und Deutschland in den Blick, wobei die italienspezifische Ausrichtung von Fos Theater (Rekurs auf Traditionen des italienischen Volkstheaters, Verarbeitung (tages)politischen Geschehens etc.) eine besondere Herausforderung für die fremdsprachige Bearbeitung des Stückes und seine Inszenierung darstellt. Neben den produktions- und rezeptionsästhetischen Grundbedingungen des Textes von Dario Fo werden in diesem Zusammenhang auch Spezifika der Bühnenübersetzung beleuchtet und Alternativen hierzu aufgezeigt, die auch bereits von Fos Truppe genutzt werden.
Diese Anfang 2006 fertiggestellte, nunmehr postum veröffentlichte Publikation untersucht und bewertet detailliert die Positionen zum Vertrag über eine Verfassung für Europa jener Parteien, die im Europäischen Parlament der "Konföderalen Fraktion der Vereinten Europäischen Linken/Nordische Grüne Linke" (GUE/NGL) angehören. Die Debatte zum europäischen Verfassungsvertrag zwang alle linken Parteien in einer erstmalig geführten transnationalen Debatte, ihre Haltung zur EU-Mitgliedschaft des eigenen Landes, ihre Position zum Verfassungsvertrag als solchem sowie ihre generelle Bereitschaft zu verdeutlichen, einem „anderen“ oder „besseren“ Vertrag zuzustimmen. Die Arbeit zeigt eine sehr hohe Fragmentierung der Haltung der linken Parteien zum Verfassungsvertrag und zur Mitgliedschaft ihrer Länder in der EU.
Deutschland hat sich innerhalb kurzer Zeit zu einem bedeutenden sicherheitspolitischen Akteur im Weltraum entwickelt. Am 1. Dezember 2010 stellte die Bundesregierung die deutsche Raumfahrtstrategie vor. Immer wieder ist die Rede von der strategischen Bedeutung des Weltraums für die deutsche Sicherheitspolitik. Eine fundierte und überprüfbare Begründung für diese Behauptung fehlt indes. Der Politikwissenschaftler Cornelius Vogt analysiert die strategischen Aspekte deutscher Weltraumsicherheitspolitik. Seine Untersuchung des strategischen Umfeldes, der nationalen Interessen, des sicherheitspolitischen Nutzens des Weltraums und der wichtigsten Anwendungsfelder zeigt, dass der Weltraum zum unverzichtbaren Bestandteil der gesamtstaatlichen Sicherheitsvorsorge avanciert ist.
Das Herbsttreffen Patholinguistik wird seit 2007 jährlich vom Verband für Patholinguistik e.V. (vpl) durchgeführt. Die Jubiläumsveranstaltung am 19.11.2011 in Potsdam war nicht nur die 5. Auflage der Veranstaltung, sondern auch ein Fest zum 10jährigen Bestehen des Verbandes. Das Thema lautete "Schluck für Schluck: Dysphagietherapie bei Kindern und Erwachsenen". Im vorliegenden Tagungsband finden sich die Artikel der Hauptvorträge sowie die Abstracts der Posterpräsentationen.
Die Krankenhäuser Ostdeutschlands in Transition : eine registerbasierte Analyse amtlicher Paneldaten
(2012)
Vorliegende Arbeit untersucht – nach intensiver Datenanalyse und -klärung – die ersten eineinhalb Jahrzehnte Transition in Ostdeutschland ökonometrisch. Im Mittelpunkt stehen dabei die Interaktionen zwischen der allgemeinen Wirtschaft und den Krankenhäusern sowie – auf Basis der Hauptdiagnose – den in Krankenhäusern behandelten Krankheiten. Verschiedene, in den politischen Diskussionen zur Effizienz der Krankenhäuser übliche Indikatoren werden verglichen und auf ihre Eignung zur adäquaten Beschreibung von Krankenhauskosten und -leistungen geprüft. Durch Einbeziehen der Daten aus Rheinland-Pfalz wird herausgearbeitet, welche der Veränderungen in Ostdeutschland transitionsbezogen sind und ob und wie sich die transitionsbezogenen von eher transitionsunabhängigen Veränderungen trennen lassen. Dazu werden den Daten – jährlich erhobenen Angaben zu einem jeden Krankenhaus bzw. jedem Kreis des Untersuchungsgebietes – Paneldatenmodelle angepasst. Ergänzt um deskriptive Statistiken, Graphen und Choroplethenkarten sind diese Modelle Grundlage einer wirtschaftswissenschaftlichen Interpretation der Veränderungen zwischen 1992 und 2005. Größten Einfluss auf die Krankenhäuser in Ost- wie in Westdeutschland haben die sich verändernden Rahmenbedingungen, zuvörderst die etappenweise Ablösung einer budgetbasierten Krankenhausfinanzierung durch eine, die auf Fallpauschalen für die verschieden schweren Krankenhausfälle (per diagnose related groups – DRG) basiert. Bereits die um das Jahr 2000 unter den Ärzten und Krankenhausmanagern beginnende Diskussion um die Fallpauschalen führt zu erheblichen Veränderungen bei der ärztlichen Diagnosestellung (bzw. -kodierung), diese Veränderungen werden diskutiert. Vor allem den Besonderheiten der Finanzierung des deutschen Gesundheitswesens ist es geschuldet, dass die Transition für die ostdeutschen Krankenhäuser sehr schnell zu einem den westlichen Krankenhäusern ähnlichen Leistungs- und Kostenniveau führt und dass mikroökonomische Unterschiede in Wirtschafts- und Sozialparametern kaum Einfluss auf die Krankenhäuser haben.
Chemische und physikalische Eigenschaften von Polymeren können verschiedene Zelltypen unterschiedlich, z. B. hinsichtlich Adhärenz oder Funktionalität, beeinflussen. Die Elastizität eines Polymers beeinflusst vor allem, welche Zugkräfte eine Zelle gegenüber ihrem Substrat entwickeln kann. Das Zellverhalten wird dann über intrazelluläre Rückkopplungsmechanismen reguliert. Die Oberflächenladung und/oder Hydrophilie eines Polymers beeinflusst zunächst die Adsorption von Ionen, Proteinen und anderen Molekülen. Vor allem über die Zusammensetzung, Dichte und Konformation der adsorbierten Komponenten werden anschließend die Wechselwirkungen mit den Zellen vermittelt. Des Weiteren können verschiedene Zelltypen unterschiedliche membranassoziierte Proteine, Zucker und Lipide aufweisen, so dass Polymereigenschaften zellspezifische Effekte bewirken können. Für biotechnologische Anwendungen und für den Einsatz in der regenerativen Medizin gewinnen Polymere, die spezifische Zellreaktionen regulieren können, immer weiter an Bedeutung. Die Isolierung und Kultur von primären Keratinozyten ist noch immer anspruchsvoll und die adäquate Heilung von Hautwunden stellt eine fortwährende medizinische Herausforderung dar. Ein Polymer, das eine bevorzugte Adhärenz von Keratinozyten bei gleichzeitig verminderter Anheftung dermaler Fibroblasten ermöglicht, würde erhebliche Vorteile für den Einsatz in der Keratinozyten-Zellkultur und als Wundauflage bieten. Um den potentiell spezifischen Einfluss bestimmter Polymereigenschaften auf primäre humane Keratinozyten und dermale Fibroblasten zu untersuchen, wurde in der vorliegenden Arbeit ein Zellkultursystem für die Mono- und Cokultur beider Zelltypen entwickelt. Das Testsystem wurde als Screening konzipiert, um den Einfluss unterschiedlicher Polymereigenschaften in mehreren Abstufungen auf die Zellen zu untersuchen. Folgende Parameter wurden untersucht: 1. Vitalität und Dichte adhärenter und nicht-adhärierter Zellen, 2. Schädigung der Zellmembran, 3. selektive Adhärenz von Keratinozyten in Cokultur durch die spezifische immunzytochemische Färbung von Keratin14 und Vimentin. Für die Polymere mit variabler Elastizität wurden zusätzlich die Ablagerung extrazellulärer Matrixkomponenten und die Sekretion löslicher Faktoren durch die Zellen untersucht. Als Modellpolymere für die Variation der Elastizität wurden vernetzte Poly(n-butylacrylate) (cPnBA) verwendet, da deren Elastizität durch den Anteil des Vernetzers eingestellt werden kann. Auf dem weniger elastischen cPnBA zeigte sich in der Cokultur ein doppelt so hohes Verhältnis von Keratinozyten zu Fibroblasten wie auf dem elastischeren cPnBA, so dass ein leichter zellselektiver Effekt angenommen werden kann. Acrylnitril-basierte Copolymere wurden als Modellpolymere für die Variation der Oberflächenladung und Hydrophilie verwendet, da die Eigenschaften durch Art und molaren Anteil des Comonomers eingestellt werden können. Durch Variation des molaren Anteils der Comonomere mit positiver bzw. negativer Ladung, Methacrylsäure-2-aminoethylester-hydrochhlorid (AEMA) und N-3-Aminopropyl-methacrylamid-hydro-chlorid (APMA) bzw. Natriumsalz der 2-Methyl-2-propen-1-sulfonsäure (NaMAS), wurde der Anteil der positiven bzw. negativen Ladung im Copolymer variiert. Durch die Erhöhung des molaren Anteils des hydrophilen Comonomers N-Vinylpyrrolidon (NVP) wurde die Hydrophilie des Copolymers gesteigert. Die Erhöhung des molaren Anteils an positiv geladenem Comonomer AEMA im Copolymer führte tendenziell zu einer höheren Keratinozytendichte, wobei die Fibroblastendichte unverändert blieb. Durch die Erhöhung des molaren Anteils des positiv geladenen Comonomers APMA ergaben sich keine deutlichen Unterschiede in Dichte, Vitalität oder Selektivität der Zellen. Durch die stufenweise Erhöhung des molaren Anteils des negativ geladenen Comonomers NaMAS konnte, wie im Falle von AEMA, eine Tendenz zur verbesserten Keratinozytenadhärenz beobachtet werden. Die Steigerung der Hydrophilie der Copolymere führte sowohl für Keratinozyten als auch für Fibroblasten zu einer reduzierten Adhärenz und Vitalität. In der vorliegenden Doktorarbeit wurde ein Testverfahren etabliert, das die Untersuchung von primären humanen Keratinozyten und primären humanen Fibroblasten in Monokultur und Cokultur auf verschiedenen Polymeren ermöglicht. Die bisherigen Ergebnisse zeigen, dass sich durch die gezielte Modifizierung verschiedener Polymereigenschaften die Adhärenz und Vitalität beider Zelltypen beeinflussen lässt. Die Reduktion der Elastizität sowie die Erhöhung des molaren Anteils geladener Comonomere führten zu einer Zunahme der Keratinozytenadhärenz. Da die Fibroblasten unbeeinflusst blieben, zeigte sich für einige der untersuchten Polymere eine leichte Zellselektivität. Diese könnte durch die weitere Erhöhung der Steifigkeit oder des Anteils geladener Comonomere möglicherweise weiter gesteigert werden.
Die Entwicklung neuer Verfahren für die Rückführung von Palladium aus Altmaterialien, wie gebrauchten Autoabgaskatalysatoren, in den Stoffstromkreislauf ist sowohl aus ökologischer als auch ökonomischer Sicht erstrebenswert. In dieser Arbeit wurden neue Flüssig-Flüssig- und Fest-Flüssig-Extraktionsmittel entwickelt, mit denen Palladium(II) aus einer oxidierenden, salzsauren Laugungslösung, die neben Palladium auch Platin und Rhodium sowie zahlreiche unedle Metalle enthält, zurückgewonnen werden kann. Die neuen Extraktionsmittel ungesättigte monomere 1,2-Dithioether und oligomere Ligandenmischungen mit vicinalen Dithioether-Einheiten – sind im Gegensatz zu vielen in der Literatur aufgeführten Extraktionsmitteln hochselektiv. Aufgrund ihrer geometrischen und elektronischen Präorganisation bilden sie mit Palladium(II) stabile quadratisch-planare Chelatkomplexe. Für die Entwicklung des Flüssig-Flüssig-Extraktionsmittels wurde eine Reihe von ungesättigten 1,2-Dithioetherliganden dargestellt, welche auf einer starren 1,2-Dithioethen-Einheit, die in ein variierendes elektronenziehendes Grundgerüst eingebettet ist, basieren und polare Seitenketten besitzen. Neben der Bestimmung der Kristallstrukturen der Liganden und ihrer Palladiumdichlorid-Komplexe wurden die elektro- und photochemischen Eigenschaften, die Komplexstabilität und das Verhalten in Lösung untersucht. In Flüssig-Flüssig-Extraktionsuntersuchungen konnte gezeigt werden, dass einige der neuen Liganden industriell genutzten Extraktionsmitteln durch eine schnellere Einstellung des Extraktionsgleichgewichts überlegen sind. Anhand von Kriterien, die für eine industrielle Nutzbarkeit entscheidend sind, wie: guter Oxidationsbeständigkeit, einer hohen Extraktionsausbeute (auch bei hohen Salzsäurekonzentrationen der Speiselösung), schneller Extraktionskinetik und einer hohen Selektivität für Palladium(II) wurde aus der Reihe der sechs Liganden ein geeignetes Flüssig-Flüssig-Extraktionsmittel ausgewählt: 1,2-Bis(2-methoxyethylthio)benzen. Mit diesem wurde ein praxisnahes Flüssig-Flüssig-Extraktionssystem entwickelt. Nach der schrittweisen Adaption der wässrigen Phase von einer Modelllösung hin zu der oxidierenden, salzsauren Laugungslösung erfolgte die Auswahl eines geeigneten großtechnisch, einsetzbaren Lösemittels (1,2-Dichlorbenzen) und eines effizienten Reextraktionsmittels (0,5 M Thioharnstoff in 0,1 M HCl). Die hohe Palladium(II)-Selektivität dieses Flüssig-Flüssig-Extraktionssystems konnte verifiziert und seine Wiederverwendbarkeit und Praxistauglichkeit unter Beweis gestellt werden. Weiterhin wurde gezeigt, dass sich beim Kontakt mit oxidierenden Medien aus dem Dithioether 1,2-Bis(2-methoxyethylthio)benzen geringe Mengen des Thioethersulfoxids 1-(2-Methoxyethylsulfinyl)-2-(2-methoxyethylthio)benzen bilden. Dieses wird im sauren Milieu protoniert und beschleunigt die Extraktion wie ein Phasentransferkatalysator, ohne jedoch die Palladium(II)-Selektivität herabzusetzen. Die Kristallstruktur des Palladiumdichlorid-Komplexes des Tioethersulfoxids zeigt, dass der unprotonierte Ligand Palladium(II), analog zum Dithioether, über die chelatisierenden Schwefelatome koordiniert. Verschiedene Mischungen von Oligo(dithioether)-Liganden und der monomere Ligand 1,2-Bis(2-methoxyethylthio)benzen dienten als Extraktionsmittel für Fest-Flüssig-Extraktionsversuche mit SIRs (solvent impregnated resins) und wurden zu diesem Zweck auf hydrophilem Kieselgel und organophilem Amberlite® XAD 2 adsorbiert. Die Oligo(dithioether)-Liganden basieren auf 1,2-Dithiobenzen oder 1,2-Dithiomaleonitril-Einheiten, welche über Tris(oxyethylen)ethylen- oder Trimethylen-Brücken miteinander verknüpft sind. Mit Hilfe von Batch-Versuchen konnte gezeigt werden, dass sich strukturelle Unterschiede - wie die Art der chelatisierenden Einheit, die Art der verbrückenden Ketten und das Trägermaterial - auf die Extraktionsausbeuten, die Extraktionskinetik und die Beladungskapazität auswirken. Die kieselgelhaltigen SIRs stellen das Extraktionsgleichgewicht viel schneller ein als die Amberlite® XAD 2-haltigen. Jedoch bleiben die Extraktionsmittel auf Amberlite® XAD 2, im Gegensatz zu Kieselgel, dauerhaft haften. Im salzsauren Milieu sind die 1,2-Dithiobenzen-derivate besser als Extraktionsmittel geeignet als die 1,2-Dithiomaleonitrilderivate. In Säulenversuchen mit der oxidierenden, salzsauren Laugungslösung und wiederverwendbaren, mit 1,2-Dithiobenzenderivaten imprägnierten, Amberlite® XAD 2-haltigen SIRs zeigte sich, dass für die Realisierung hoher Beladungskapazitäten sehr geringe Pumpraten benötigt werden. Trotzdem konnte die gute Palladium(II)-Selektivität dieser Festphasenmaterialien demonstriert werden. Allerdings wurden in den Eluaten im Gegensatz zu den Eluaten, die aus Flüssig-Flüssig-Extraktion resultierten neben dem Palladium auch geringe Mengen an Platin, Aluminium, Eisen und Blei gefunden.