Refine
Year of publication
- 2020 (73) (remove)
Document Type
- Doctoral Thesis (73) (remove)
Language
- German (73) (remove)
Is part of the Bibliography
- yes (73)
Keywords
- Boden (2)
- Chemometrie (2)
- Digitalisierung (2)
- ICP-OES (2)
- Nährelemente (2)
- PCA (2)
- PLSR (2)
- RFA (2)
- XRF (2)
- 1,6,7,12-Tetraazaperylen (1)
Institute
Die vorliegende Arbeit untersucht Urlaubsfotografien bei Facebook und beschreibt, welche sozio-technischen Medienpraktiken sich innerhalb der Social-Media Plattform über die Fotografien vollziehen. Fotografische Praktiken sind durch aktive Handlungen und soziale Gebrauchsweisen bestimmt. Urlaubsfotografien tragen zum Beispiel zur Strukturierung von Reiserouten und Vorstellungen bei, indem genrespezifische Motive und Rahmungen mit Hilfe von Medien reproduziert und wiederholt werden. Praktiken des Zeigens, Teilens und Kommunizierens werden durch Social Plug-Ins (Like/Share Buttons) und Tagging-Funktionen auch in die Benutzeroberflächen von Facebook integriert. Dadurch werden Nutzer*innen Aktivitäten und technische Prozesse miteinander verbunden. Am Beispiel der automatischen Generierung von Urlaubsfotografien auf Geotagseiten wird gezeigt, dass Social-Tagging zur Entstehung und Aushandlung geographischer Räume und Ortsvorstellungen beiträgt. Mithilfe technischer Strukturierungen von Fotografien auf Taggingseiten werden genrespezifische Motive, fotografische Trends und Ästhetiken besonders sichtbar. Allerdings wird ihre Visualisierung auch durch algorithmische Priorisierung einzelner Inhalte mitbestimmt. Dadurch werden Urlaubsfotografien für ein fotografisches Profiling genutzt, da sie das algorithmische Erfassen und Auswerten von Nutzer*innen-Informationen ermöglichen. Die Arbeit zeigt, dass der Einsatz von Bilderkennungsverfahren und fotografischen Datenanalysen zu einer optimierten Informationsgewinnung und zu einer Standardisierung von Fotografien beiträgt.
Ein Ergebnis der interkulturellen Beziehungen in Südostasien sind die immer noch existierenden portugiesisch-basierten Kreolsprachen Papia Kristang und Macaísta, die zu Muttersprachen von Generationen von Menschen in Malakka und Macau geworden sind. Welche Faktoren bewirken den Sprachwandel dieser Idiome, und wie ist dieser erkennbar? Dieser Band beschäftigt sich nicht nur mit der Sprachdynamik der portugiesisch-basierten Kreolsprachen Südostasiens, sondern auch mit anderen wesentlichen Fragestellungen der Variationslinguistik. Als Basis dienen die Ergebnisse einer empirischen Datenerhebung, die insbesondere die Veränderungen im Sprachgebrauch dokumentieren. Darüber hinaus stellt der Autor neue Resultate hinsichtlich der Sprachidentifikationen vor, die nicht nur für die Kreolistik von Bedeutung sind, sondern auch fachübergreifend für das Interesse der allgemeinen Sprachwissenschaft.
Die Auswirkungen der reformierten Psychotherapierichtlinie auf die ambulante Patentenversorgung
(2020)
Zufriedenheitsanalysen durch Patientenbefragungen, wie in diesem Fall der neu entwickele und getestet Fragebogen (HNO-PROM), haben drei Säulen. Es kann zum einen eine bessere Patientenbindung geschaffen werden, die Qualität kann gemessen, verglichen und optimiert werden und es kann ein Mitarbeiterleitfaden im Sinne einer „Corporate Identity“ erstellt werden, welcher konkrete Managementimplikationen im Sinne von Handlungsimplikationen enthält. Der Leitgedanke des Qualitätsmanagements ist die Patientenorientierung im Sinne der Patientenzentrierten Medizin. Hierbei sollen nicht nur Wünsche und Bedürfnisse des Patienten erfüllt werden, sondern vorallem auch die Zufriedenheit gemessen und geplant werden. Gleichzeit muss man in diesem Zusammenhang die Behandlung der Patienten als Dienstleistung verstehen und die größtmögliche Zufriedenheit des Patienten als primäres Ziel setzen. Dies führt zu einer Kundenbindung dadurch, dass Patienten sowohl eine gleichbleibende Qualität erwarten können als auch und auch weiche Faktoren ihren Wünschen entsprechen werden. Corporate Identity mit dem Ziel als Unternehmen einheitlich für die Werte und damit die Qualität zu stehen.. Dies ermöglicht, das Wohlbefinden in der Vorstellung der Patienten beginnen zu lassen und dadurch Vertrauen zu schaffen. Alle drei Säulen haben nicht nur die Patientenzufriedenheit zum Ziel, sondern in gleichem Maße auch die Positionierung einer Institution auf dem Gesundheitsmarkt und damit die Verbesserung der Kosten-Nutzen-Rechnung durch ein positives Outcome. Damit fördern Zufriedenheitsanalysen nicht nur die ökonomische Position einer Abteilung, sondern behalten gleichermaßen die ethischen Aspekte einer Arzt-Patienten-Beziehung im Blick.
Im Rahmen der vom Bundesministerium für Bildung und -forschung geförderten Forschungsinitiative „BonaRes – Boden als nachhaltige Ressource der Bioökonomie“ soll sich das Teilprojekt „I4S – integrated system for site-specific soil fertility management“ der Entwicklung eines integrierten Systems zum ortsspezifischen Management der Bodenfruchtbarkeit widmen. Hierfür ist eine Messplattform zur Bestimmung relevanter Bodeneigenschaften und der quantitativen Analyse ausgewählter Makro- und Mikronährstoffe geplant. In der ersten Phase dieses Projekts liegt das Hauptaugenmerk auf der Kalibrierung und Validierung der verschiedenen Sensoren auf die Matrix Boden, der Probennahme auf dem Acker und der Planung sowie dem Aufbau der Messplattform. Auf dieser Plattform sollen in der zweiten Phase des Projektes die verschiedenen Bodensensoren installiert, sowie Modelle und Entscheidungsalgorithmen zur Steuerung der Düngung und dementsprechend Verbesserung der Bodenfunktionen erstellt werden.
Ziel der vorliegenden Arbeit ist die Grundlagenuntersuchung und Entwicklung einer robusten Online-Analyse mittels Energie-dispersiver Röntgenfluoreszenzspektroskopie (EDRFA) zur Quantifizierung ausgewählter Makro- und Mikronährstoffe in Böden für eine kostengünstige und flächendeckende Kartierung von Ackerflächen. Für die Entwicklung eines Online-Verfahrens wurde ein dem Stand der Technik entsprechender Röntgenfluoreszenzmesskopf in Betrieb genommen und die dazugehörigen Geräteparameter auf die Matrix Boden optimiert. Die Bestimmung der analytischen Qualitäts-merkmale wie Präzision und Nachweisgrenzen fand für eine Auswahl an Nährelementen von Aluminium bis Zink statt. Um eine möglichst Matrix-angepasste Kalibrierung zu erhalten, wurde sowohl mit zertifizierten Referenzmaterialien (CRM), als auch mit Ackerböden kalibriert. Da einer der größten Nachteile der Röntgenfluoreszenzanalyse die Beeinflussung durch Matrixeffekte ist, wurde neben der klassischen univariaten Datenauswertung auch die chemometrische multivariate Methode der Partial Least Squares Regression (PLSR) eingesetzt. Die PLSR bietet dabei den Vorteil, Matrixeffekte auszugleichen, wodurch robustere Kalibriermodelle erhalten werden können. Zusätzlich wurde eine Hauptkomponentenanalyse (PCA) durchgeführt, um Gemeinsamkeiten und Ausreißer innerhalb des Probensets zu identifizieren. Es zeigte sich, dass eine Klassifizierung der Böden anhand ihrer Textur Sand, Schluff, Lehm und Ton möglich ist.
Aufbauend auf den Ergebnissen idealer Bodenproben (zu Tabletten gepresste luftgetrocknete Proben mit Korngrößen < 0,5 mm) wurde im Verlauf dieser Arbeit die Probenvorbereitung immer weiter reduziert und der Einfluss verschiedener Kenngrößen untersucht. Diese Einflussfaktoren können die Dichte und die Homogenität der Probe, sowie Korngrößeneffekte und die Feuchtigkeit sein. Anhand des RMSE (Wurzel der mittleren Fehlerquadratsumme) und unter Berücksichtigung der Residuen werden die jeweils erstellten Kalibriermodelle miteinander verglichen. Um die Güte der Modelle zu bewerten, wurden diese mit einem Testset validiert. Hierfür standen 662 Bodenproben von 15 verschiedenen Standorten in Deutschland zur Verfügung. Da die Ergebnisse an gepressten Tabletten für die Elemente Al, Si, K, Ca, Ti, Mn, Fe und Zn den Anforderungen für eine spätere Online-Analyse entsprechen, wurden im weiteren Verlauf dieser Arbeit Kalibriermodelle mit losen Bodenproben erstellt. Auch hier konnten gute Ergebnisse durch ausreichende Nachweisgrenzen und eine niedrige gemittelte Messabweichung bei der Vorhersage unbekannter Testproben erzielt werden. Es zeigte sich, dass die Vorhersagefähigkeit mit der multivariaten PLSR besser ist als mit der univariaten Datenauswertung, insbesondere für die Elemente Mn und Zn.
Der untersuchte Einfluss der Feuchtigkeit und der Korngrößen auf die Quantifizierung der Elementgehalte war vor allem bei leichteren Elementen deutlich zu sehen. Es konnte schließlich eine multivariate Kalibrierung unter Berücksichtigung dieser Faktoren für die Elemente Al bis Zn erstellt werden, so dass ein Einsatz an Böden auf dem Acker möglich sein sollte. Eine höhere Messunsicherheit muss dabei einkalkuliert werden. Für eine spätere Probennahme auf dem Feld wurde zudem der Unterschied zwischen statischen und dynamischen Messungen betrachtet, wobei sich zeigte, dass beide Varianten genutzt werden können. Zum Abschluss wurde der hier eingesetzte Sensor mit einem kommerziell erhältlichen Hand-Gerät auf sein Quantifizierungspotential hin verglichen. Der Sensor weist anhand seiner Ergebnisse ein großes Potential als Online-Sensor für die Messplattform auf. Die Ergebnisse unter Laborbedingungen zeigen, dass eine robuste Analyse Ackerböden unter Berücksichtigung der Einflussfaktoren möglich ist.
In den letzten Jahrzehnten ist die Nachfrage nach kostengünstigen und flächendeckenden Kartierungsmöglichkeiten im Hinblick auf eine ertragssteigernde und umweltfreundlichere Bewirtschaftung von landwirtschaftlichen Nutzflächen stark gestiegen. Hierfür eignen sich spektroskopische Methoden wie die Röntgenfluoreszenzanalyse (RFA), Raman- und Gammaspektroskopie sowie die laserinduzierte Plasmaspektroskopie (LIBS). In Abhängigkeit von der Funktionsweise der jeweiligen Methoden werden Informationen zu verschiedensten Bodeneigenschaften wie Nährelementgehalt, Textur und pH-Wert erhalten.
Ziel dieser Arbeit ist die Entwicklung eines Online-LIBS-Verfahrens zur Nährelementbestimmmung und Kartierung von Ackerflächen. Die LIBS ist eine schnelle und simultane Multielementanalyse bei der durch das Fokussieren eines hochenergetischen Laserpulses Probenmaterial von der Probenoberfläche ablatiert wird und in ein Plasma überführt wird. Beim Abkühlen des Plasmas wird Strahlung emittiert, welche Rückschlüsse über die elementare Zusammensetzung der Probe gibt. Diese Arbeit ist im Teilprojekt I4S (Intelligenz für Böden) im Forschungsprogramm BonaRes (Boden als nachhaltige Ressource für die Bioökonomie) des Bundesministerium für Bildung und Forschung (BMBF) entstanden. Es wurden insgesamt 651 Bodenproben von verschiedenen Test-Agrarflächen unterschiedlichster Standorte Deutschlands gemessen, ausgewertet und zu Validierungszwecken mit entsprechender Referenzanalytik wie die Optische Emissionsspektroskopie mittels induktiv gekoppeltem Plasma (ICP-OES) und die wellenlängendispersive Röntgenfluoreszenzanalyse (WDRFA) charakterisiert.
Für die Quantifizierung wurden zunächst die Messparameter des LIBS-Systems auf die Bodenmatrix optimiert und für die Elemente geeignete Linien ausgewählt sowie deren Nachweisgrenzen bestimmt. Es hat sich gezeigt, dass eine absolute Quantifizierung basierend auf einem univariaten Ansatz aufgrund der starken Matrixeffekte und der schlechten Reproduzierbarkeit des Plasmas nur eingeschränkt möglich ist. Bei Verwendung eines multivariaten Ansatz wie der Partial Least Squares Regression (PLSR) für die Kalibrierung konnten für die Nährelemente im Vergleich zur univariaten Variante Analyseergebnisse mit höherer Güte und geringeren Messunsicherheiten ermittelt werden. Die Untersuchungen haben gezeigt, dass das multivariate Modell weiter verbessert werden kann, indem mit einer Vielzahl von gut analysierten Böden verschiedener Standorte, Bodenarten und einem breiten Gehaltsbereich kalibriert wird. Mithilfe der Hauptkomponentenanalyse (PCA) wurde eine Klassifizierung der Böden nach der Textur realisiert. Weiterhin wurde auch eine Kalibrierung mit losem Bodenmaterial erstellt. Trotz der Signalabnahme konnten für die verschiedenen Nährelemente Kalibriergeraden mit ausreichender, analytischer Güte erstellt werden.
Für den Einsatz auf dem Acker wurde außerdem der Einfluss von Korngröße und Feuchtigkeit auf das LIBS-Signal untersucht. Die unterschiedlichen Korngrößen haben nur einen geringen Einfluss auf das LIBS-Signal und das Kalibriermodell lässt sich durch entsprechende Proben leicht anpassen. Dagegen ist der Einfluss der Feuchtigkeit deutlich stärker und hängt stark von der Bodenart ab, sodass für jede Bodenart ein separates Kalibriermodell für verschiedene Feuchtigkeitsgehalte erstellt werden muss. Mithilfe der PCA kann der Feuchtigkeitsgehalt im Boden grob abgeschätzt werden und die entsprechende Kalibrierung ausgewählt werden.
Diese Arbeit liefert essentielle Informationen für eine Echtzeit-Analyse von Nährelementen auf dem Acker mittels LIBS und leistet einen wichtigen Beitrag zu einer fortschrittlichen und zukunftsfähigen Nutzung von Ackerflächen.
Arbeitnehmer werden in der heutigen Informationsgesellschaft immer häufiger, genauer und dadurch intensiver überwacht. Die moderne Technik bietet dem Arbeitgeber qualitativ und quantitativ immer bessere Kontrollmechanismen. Dabei werden die verschiedenen Überwachungsmethoden nicht selten heimlich angewandt, was das Persönlichkeitsrecht des Arbeitnehmers stark beeinträchtigt und sich oft in einer rechtlichen Grauzone abspielt.
Das Thema der Überwachung am Arbeitsplatz und der Datenschutz stehen in Deutschland insbesondere seit dem Inkrafttreten der DSGVO im Mittelpunkt juristischer Diskussionen. Im Gegensatz zum deutschen Recht fand die Diskussion zur Überwachung am Arbeitsplatz und zum Arbeitnehmerdatenschutz in der Türkei trotz der Regelung von Art. 419 tOR und der Verabschiedung des türkischen Datenschutzgesetzes im Jahr 2016 ihren verdienten Platz noch nicht.
Die Autorin nimmt zu den zentralen Streitfragen um die heimliche Überwachung am Arbeitsplatz in Deutschland und in der Türkei rechtsvergleichend Stellung und will somit zum einen in beiden Ländern das Bewusstsein für Persönlichkeits- und Datenschutz am Arbeitsplatz stärken, zum anderen herausfinden, ob die deutsche Vorgehensweise bei diesem Thema dem türkischen Gesetzgeber Lösungsalternativen bieten kann. Im Vordergrund der Untersuchungen stehen dabei die in der Praxis häufigsten heimlichen Überwachungsmethoden, die heimliche Videoüberwachung, die Überwachung durch Detektive, die Standortüberwachung durch GPS-Empfänger sowie die E-Mail-Überwachung.
Das Ziel der vorliegenden Dissertation war es herauszuarbeiten, ob Nachhaltigkeitsbewusstsein den Konsum von Luxusgütern beeinflusst und ob verschiedene Moderatoren einen Einfluss auf diesen Zusammenhang ausüben. Das Nachhaltigkeitsbewusstsein wurde dabei basierend auf dem von Balderjahn et al. (2013) entwickelten Consciousness-for-sustainable-consumption-Modell durch die ökologische, soziale und die ökonomische Nachhaltigkeit sowie ergänzend durch das Tierschutzbewusstsein und Bewusstsein für lokale Produktion repräsentiert. Als Moderatoren dienten das Streben nach sozialer Anerkennung und Prestige, Materialismus, Hedonismus und Traditionsbewusstsein. Für die Aufdeckung möglicher Zusammenhänge zwischen den verschiedenen Dimensionen der Nachhaltigkeit und Luxuskonsum wurde eine Prädiktorenanalyse durchgeführt. Moderatorenanalysen offenbarten zusätzlich, ob ein Einfluss der verschiedenen Moderatoren auf die einzelnen Zusammenhänge vorlag. Die Untersuchung zeigte, dass jeweils das Umweltbewusstsein, das Bewusstsein für genügsamen Konsum sowie das Bewusstsein für schuldenfreien Konsum als Teil der ökonomischen Nachhaltigkeit und das Tierschutzbewusstsein einen Einfluss auf den Luxuskonsum ausüben. Darüber hinaus konnten insgesamt sieben Einflüsse durch die verschiedenen Moderatorvariablen auf die unterschiedlichen Zusammenhänge zwischen den Nachhaltigkeitsdimensionen und Luxuskonsum aufgedeckt werden.
Im internationalen Deliktsrecht kommt es immer wieder zu Friktionen, wenn das anwendbare Recht nicht dem Recht des Ortes der schädigenden Handlung entspricht. Der maßgebliche haftungsbegründende Verhaltensmaßstab ist für den Schädiger, der sich im Regelfall am Recht des Handlungsortes orientiert, in solchen Konstellationen nur schwer vorherzusehen. Der europäische Verordnungsgeber hat daher mit Art. 17 Rom-II-VO eine Norm geschaffen, die die „Berücksichtigung” von Sicherheits- und Verhaltensregeln des Handlungsortes unabhängig vom anwendbaren Recht allgemein anordnet. Diese „Berücksichtigung” statutsfremder Regeln ist ein Fremdkörper im hergebrachten Methodengefüge des kontinentalen IPR. Vor diesem Hintergrund untersucht Yannick Diehl Möglichkeiten zur Entwicklung einer tragfähigen dogmatischen Untermauerung der bisher zu großen Teilen diffus gebliebenen Rechtsfigur.
Die Arbeit beschäftigt sich mit Einwirkungen des Unionsrechts auf Doppelbesteuerungsabkommen. Werden Doppelbesteuerungsabkommen zwischen Staaten geschlossen, die zugleich Mitglied der Europäischen Union sind, haben diese zusätzlich das Unionsrecht, insbesondere die Grundfreiheiten und Richtlinien, zu beachten. Die Arbeit beschäftigt sich mit der Frage, wie das grundsätzlich vorrangige Unionsrecht auf die Regelungen der Doppelbesteuerungsabkommen einwirkt, wann diese Regelungen dennoch anzuwenden sind und wie die Vorschriften für das jeweils nationale Steuerrecht sowie die Doppelbesteuerungsabkommen ausgestaltet werden dürfen.
Auf der Grundlage verschiedener Entscheidungen des Europäischen Gerichtshofs schafft die Arbeit eine Grundlage für die verlässliche Beurteilung vorliegender und künftiger Fälle, findet dabei einen Ausgleich zwischen dem Unionsrecht und dem jeweils nationalen Steuerrecht und zeigt Möglichkeiten für die Staaten auf, Steuervermeidungsmodelle zu verhindern.
Die Reformation in Brandenburg gilt als Musterbeispiel einer obrigkeitlich initiierten und gesteuerten Fürstenreformation in einem nordostdeutschen Territorialstaat. Deshalb haben lange Zeit das Handeln und die Motive hauptsächlich der Landesherrschaft die Aufmerksamkeit der brandenburgischen Reformationsgeschichtsforschung auf sich vereinigt. Felix Engel erweitert diesen recht eng gesteckten Horizont, indem er die Perspektive »von unten« in seine Betrachtung einbezieht und systematisch ergründet, welche Mittel und Wege den städtischen Akteuren zu verschiedenen Phasen des Reformationsprozesses offenstanden, um die Umgestaltung ihrer kommunalen Kirchenwesen aktiv zu beeinflussen. Daher finden zunächst sowohl die strukturellen und ideellen Vorbedingungen als auch die Reformationsverläufe Berücksichtigung. Anschließend werden Kontinuitäten und Brüche sowie die Handlungsspielräume der beteiligten Protagonisten in zentralen Bereichen der städtischen Kirchenwesen analysiert.
Die Trennung von Werbung und Programm gilt als »Magna Charta« des Medienrechts. In der Medienpraxis scheinen jedoch andere Spielregeln zu herrschen: Werbung soll dort so unauffällig wie möglich in das redaktionelle Programm eingebaut werden, um mit dem potenziellen Käufer erfolgreich zu kommunizieren. Immer neue programmintegrierte Werbeformen entstehen, die Programme darauf ausrichten, Markenprodukte in Szene zu setzen. Dieser Widerspruch zwischen Recht und Praxis bildet den Hintergrund dieser Arbeit. Im Schwerpunkt wird der Rechtsbegriff der Schleichwerbung im nationalen Medienrecht untersucht. Für die Bestimmung der verbotenen programmintegrierten Werbeform im Fernsehen und Internet stellt der Rundfunkstaatsvertrag die entscheidende Rechtsgrundlage dar. Insbesondere spielt die Schleichwerbung im Zusammenhang mit dem Influencer-Marketing eine große Rolle und daher klärt die Arbeit, was Werbebetreibende in sozialen Medien beachten müssen. Ferner werden die Aktualität und Angemessenheit der heutigen Regeln analysiert. Die Arbeit wurde ausgezeichnet mit dem Wolf-Rüdiger-Bub-Preis des Vereins der Freunde und Förderer der Juristischen Fakultät der Universität Potsdam.
In der Arbeit „Von der Studienaufnahme bis zum Studienabbruch“ strebt die Autorin an, das Phänomen des Studienabbruchs sowohl handlungstheoretisch einzubetten als auch längsschnittlich zu untersuchen und damit einen wichtigen Beitrag für die Hochschulforschung zu leisten. Die übergeordneten Fragestellungen der Arbeit lauten „Wie kann der Entscheidungsprozess zum Studienabbruch handlungstheoretisch beschrieben werden?“ und „Inwieweit kann ein Studienabbruch durch die Veränderung wesentlicher Einflussfaktoren, wie des studentischen Frames, empirisch erklärt werden?“. Zur Beantwortung dieser zwei übergeordneten Fragen wählt die Autorin die integrative Handlungstheorie und das Modell der Frame-Selektion von Hartmut Esser und Clemens Kroneberg. Anhand dieser entwickelt die Autorin im theoretischen Teil ihrer Arbeit ein Modell des Reframings in der Studieneingangsphase, was den Prozess der Entscheidung zum Studienabbruch bzw. Studienverbleib beschreibt. Die Wahl der Theorie begründet sie durch den aktuellen Forschungsstand zu Bildungsentscheidungen aus der soziologischen Bildungsforschung. Im Rahmen des abgeleiteten Modells stellt der Studienabbruch eine weitere allgemeine Bildungsentscheidung dar, die durch ein Reframing des Interpretationsrahmens der Studierenden (das sogenannte Frame) in der Studieneingangsphase verursacht werden kann. Dabei liegt der Fokus des Modells auf dem Prozess der Entscheidung, indem beschrieben wird, wie und durch welche Faktoren das ursprüngliche Frame, mit dem die Studienentscheidung getroffen wurde, in der Studieneingangsphase sich verändert und infolgedessen es zu einer wiederholten Bildungsentscheidung kommt. Mit dem empirischen Teil der Arbeit verfolgt die Autorin zwei Ziele. Zum einen werden die theoretischen Annahmen aus dem Modell zum Reframing in der Studieneingangsphase anhand von Wiederholungsbefragungen von Studierenden überprüft. Zum anderen untersucht die Autorin mithilfe dieser Daten die Entscheidung zum Studienabbruch für den deutschen Kontext erstmalig im Längsschnitt. Die empirischen Untersuchungen umfassen vier Teilstudien und orientieren sich chronologisch am theoretischen Modell. So wird zunächst in der Teilstudie I die messtheoretische Güte der Operationalisierung des studentischen Frames überprüft und anschließend Bestimmungsfaktoren des anfänglichen studentischen Frames zur Studienaufnahme betrachtet. Die Teilstudie II bietet eine Untersuchung zum Match zwischen den anfänglichen Erwartungen und der vorgefundenen Studienrealität in der Studieneingangsphase, wobei das Match anhand von individuellen und institutionellen Faktoren erklärt wird. Der Fokus der Teilstudie III liegt auf dem Ausmaß und den Bedingungsfaktoren der Veränderungen des Frames in der Studieneingangsphase. Letztlich bietet die Teilstudie IV erstmalig für die deutsche Hochschulforschung eine längsschnittliche Perspektive mit dem Fokus auf die zeitliche Veränderung des studentischen Frames zur Erklärung des Studienabbruchs und Studienverbleibs. Im Fazit diskutiert die Autorin Implikationen für die Weiterentwicklung des vorgeschlagenen theoretischen Modells, Implikationen für die zukünftige Forschung zum Studienabbruch und Implikationen für die Praxis an den Hochschulen zur Gestaltung der Studieneingangsphase und Prävention von Studienabbrüchen. Dabei kann sie vor allem für die Hochschulpraxis fünf große Themenbereiche identifizieren: der Umfang von unerfüllten Erwartungen der Studierenden; die Heterogenität der studentischen Frames bei der Studienaufnahme; der große Anteil an Studierenden, die mindestens einen Studiengangwechsel vollzogen haben; die phasenspezifische Veränderung des studentischen Frames und ihre Bedeutung für die Stabilisierung bzw. Destabilisierung der Studienentscheidung sowie die Bedeutung der inhaltlichen und qualitativen Gestaltung der Studieneingangsphase und des Studiums. Letztlich spricht sich die Autorin auch für eine Entstigmatisierung des Studienabbruchs aus.
Die Entwicklung nachhaltiger Bewirtschaftungs- und Produktionsmethoden ist eine der zentralen Fragestellungen der modernen Agrarwirtschaft. Die vorliegende Arbeit beschäftigt sich mit zwei Forschungsthemen, die das Konzept Nachhaltigkeit beinhalten. In beiden Fällen werden analytische Grundlagen für die Entwicklung entsprechender landwirtschaftlicher Arbeitsmethoden gelegt.
Das erste Thema ist an den sogenannten Präzisionsackerbau angelehnt. Bei diesem wird die Bearbeitung von Agrarflächen ortsabhängig ausgeführt. Das heißt, die Ausbringung von Saatgut, Dünger, Bewässerung usw. richtet sich nach den Eigenschaften des jeweiligen Standortes und wird nicht pauschal gleichmäßig über ein ganzes Feld verteilt. Voraussetzung hierfür ist eine genaue Kenntnis der Bodeneigenschaften. In der vorliegenden Arbeit sollten diese Parameter mittels der analytischen Technik der Laser-induzierten Breakdown Spektroskopie (LIBS), die eine Form der Elementaranalyse darstellt, bestimmt werden. Bei den hier gesuchten Bodeneigenschaften handelte es sich um die Gehalte von Nährstoffen sowie einige sekundäre Parameter wie den Humusanteil, den pH-Wert und den pflanzenverfügbaren Anteil einzelner Nährstoffe. Diese Eigenschaften wurden durch etablierte Referenzanalysen bestimmt. Darauf aufbauend wurden die Messergebnissen der LIBS-Untersuchungen durch verschiedene Methoden der sogenannten multivariaten Datenanalyse (MVA) ausgewertet. Daraus sollten Modelle zur Vorhersage der Bodenparameter in zukünftigen LIBS-Messungen erarbeitet werden. Die Ergebnisse dieser Arbeit zeigten, dass mit der Kombination von LIBS und MVA sämtliche Bodenparameter erfolgreich vorhergesagt werden konnten. Dies beinhaltete sowohl die tatsächlich messbaren Elemente als auch die sekundären Eigenschaften, welche durch die MVA mit den Elementgehalten in Zusammenhang gebracht wurden.
Das zweite Thema beschäftigt sich mit der Vermeidung von Verlusten durch Schädlingsbefall bei der Getreidelagerung. Hier sollten mittels der Ionenmobilitätsspektrometrie (IMS) Schimmelpilzkontaminationen detektiert werden. Dabei wurde nach den flüchtigen Stoffwechselprodukten der Pilze gesucht. Die durch Referenzmessungen mit Massenspektrometern identifizierten Substanzen konnten durch IMS im Gasvolumen über den Proben, dem sogenannten Headspace, nachgewiesen werden. Dabei wurde nicht nur die Anwesenheit einer Kontamination festgestellt, sondern diese auch charakterisiert. Die freigesetzten Substanzen bildeten spezifische Muster, anhand derer die Pilze identifiziert werden konnten. Hier wurden sowohl verschiedene Gattungen als auch einzelne Arten unterschieden. Die Messungen fanden auf verschiedenen Nährböden statt um den Einfluss dieser auf die Stoffwechselprodukte zu beobachten. Auch die sekundären Stoffwechselprodukte der Schimmelpilze, die Mykotoxine, konnten durch IMS detektiert werden.
Beide in dieser Arbeit vorgestellten Forschungsthemen konnten erfolgreich abgeschlossen werden. Sowohl LIBS als auch IMS erwiesen sich für den Nachweis der jeweiligen Analyten als geeignet, und der Einsatz moderner computergestützter Auswertemethoden ermöglichte die genaue Charakterisierung der gesuchten Parameter. Beide Techniken können in Form von mobilen Geräten verwendet werden und zeichnen sich durch eine schnelle und sichere Analyse aus. In Kombination mit entsprechenden Modellen der MVA sind damit alle Voraussetzungen für Vor-Ort-Untersuchungen und damit für den Einsatz in der Landwirtschaft erfüllt.
Mit dieser Arbeit soll ein Vorschlag unterbreitet werden, wie gerichtliche Entscheidungen analysiert und bewertet werden können. Im Mittelpunkt der Arbeit steht dabei die von Karl Larenz aufgeworfene Fragestellung, unter welchen Voraussetzungen eine richterliche Rechtsfortbildung als gelungen bezeichnet werden kann. Geht man in diesem Zusammenhang von der grundsätzlichen Annahme aus, dass sich die Auslegung und Rechtsfortbildung trennen lassen, werden für diese Arbeit im wesentlichen drei Dinge relevant: Zum einen stellt sich die Frage wie Richterrecht auszulegen ist, da nur bei Klärung des konkreten Inhalts einer Entscheidung ein qualitatives Urteil ermöglicht wird. Sodann stellt sich die Frage, wie die Kriterien zu entwickeln sind. Dabei schlägt diese Arbeit Wege vor, bestehende Kriterien zu untermauern und zu präzisieren und neue Maßstäbe selbst zu entwickeln. Eine Anwendung der entwickelten Kriterien soll zum Abschluss anhand der Delisting-Rechtsprechung des BGH erfolgen.
Bilder des Glaubens
(2020)
Medien prägen maßgeblich das öffentliche Bild von Religion in der modernen Gesellschaft, weshalb die Kirchen frühzeitig mediale Wege der Verkündigung suchten. Das Fernsehen als bedeutendstes Massenmedium in der zweiten Hälfte des 20. Jahrhunderts spielte dabei eine Schlüsselrolle. Von den Kirchen produzierte Unterhaltungsserien erreichten große Reichweiten, gleichzeitig entwickelte sich das bundesdeutsche Fernsehen zu einem Experimentierfeld für neue Praktiken der Religionsausübung. Alternative Glaubensformen gewannen an Aufmerksamkeit, etwa nichtchristliche Weltreligionen wie der Islam, Gläubige am Rande der Kirchen wie die Evangelikalen oder als »Sekten« geschmähte Gruppen wie die Zeugen Jehovas, aber auch spirituelle Phänomene wie Wahrsagerei, Okkultismus und »New Age«. Ronald Funke analysiert die zwischen den 1950er und 1980er Jahren im Fernsehen gezeigten Bilder des Glaubens in der Bundesrepublik und verdeutlicht, wie deren Inhalte durch enge Zusammenarbeit, aber auch durch Konflikte ausgehandelt wurden.
Hugo Greßmann (1877-1927) hat als einer der führenden Vertreter der Religionsgeschichtlichen Schule die religionsgeschichtliche Methode zur Geltung gebracht. Die biographisch-wissenschaftsgeschichtliche Studie stellt Greßmanns religionsgeschichtliches Programm dar, ordnet es in den wissenschaftshistorischen Kontext ein und zeigt seine Bedeutung für die weitere Wissenschaftsgeschichte auf.
Hugo Greßmann (1877-1927) hat als einer der führenden Vertreter der Religionsgeschichtlichen Schule die religionsgeschichtliche Methode zur Geltung gebracht. Die biographisch-wissenschaftsgeschichtliche Studie stellt Greßmanns religionsgeschichtliches Programm dar, ordnet es in den wissenschaftshistorischen Kontext ein und zeigt seine Bedeutung für die weitere Wissenschaftsgeschichte auf.
Die Kooperation von Schule und Jugendhilfe befindet sich aktuell im Wandel. Spätestens seit Beginn der 2000er-Jahre wird insbesondere von Seiten der Politik eine verstärkte Zusammenarbeit beider Institutionen gefordert. Die PISA-Studie des Jahres 2000 verdeutlichte die Chancenungleichheit unseres Bildungssystems und sorgte damit für eine Renaissance der Thematik. Zuletzt führten die Inklusionsdebatte und die Flüchtlingsströme, die Europa seit 2015 erreichen, sowie daraus folgende rechtspopulistische Tendenzen in Deutschland verstärkt zur Notwendigkeit, die Bildungswelten Jugendhilfe und Schule stärker zu vernetzen. Junge Menschen unterschiedlichster Personengruppen sollen besser ins Bildungssystem integriert und demokratiefeindlichem Gedankengut entgegengewirkt werden.
Die Zusammenarbeit von Jugendhilfe und Schule ist somit aktuell stärker gefragt denn je. Sie gilt als komplexe Problemlösestrategie und wird mit einer Vielzahl positiver Erwartungen assoziiert. Sie soll auf bildungs- und sozialpolitische Fragen Antwort geben, den demokratischen Gedanken stärken und junge Menschen auf rasche technische und mediale Veränderungen im Arbeitsalltag vorbereiten. In der Theorie wird die Zusammenarbeit von Jugendhilfe und Schule als Allheilmittel angepriesen, doch wie gestaltet sich die Praxis?
Diese Studie geht dieser Frage nach, indem sie exemplarisch die Kooperation an der Bildungsstätte „Kurt Löwenstein“ im brandenburgischen Werneuchen aus der Sicht von Lehrkräften untersucht. Die Autorin wertet Leitfadeninterviews systematisch aus und kommt dabei zu überraschenden Ergebnissen. Die Studie legt Erfolgsfaktoren und Hemmnisse der Kooperation dar und liefert eine kritische und differenzierte Analyse des Ist-Zustandes.
Eine sportartspezifische Anforderungsanalyse ist die Grundlage für die Leistungsdiagnostik und eine wichtige Voraussetzung für die Trainingssteuerung im Spitzensport. Im Rahmen der Leistungsdiagnostik in der Zweikampfsportart Judo besitzen judospezifische Anrissleistungen bei Anrissbewegungen ein hohes Potenzial, um Defizite im Kraft-Weg-Verlauf bzw. in den kinetischen Parametern (z. B. mechanische Arbeit, dynamische Maximalkraft) zu identifizieren und ableitend daraus entsprechende trainingsmethodische Anpassungen zur Verbesserung vorzunehmen. Die Rumpfstabilität und die Rumpfkraft stellen wichtige Leistungsvoraussetzungen für sportliche Bewegungen dar, um den optimalen Transfer von Kräften und Drehmomenten von den unteren Extremitäten über den stabilen Rumpf hin zu den oberen Extremitäten zu ermöglichen. Im Trainingsprozess der Judoka erfährt das spezifische Krafttraining immer mehr Aufmerksamkeit, um die sportartrelevanten Muskelgruppen zu entwickeln und somit die finale Effektivität einer Wurftechnik zu verbessern.
Die wesentliche Zielstellung dieser Arbeit bestand darin, die Leistungsdiagnostik im Judo zu optimieren und effektive Trainingsprogramme zur Verbesserung von judospezifischen Anrissbewegungen zu entwickeln. Im Einzelnen wurde dafür eine systematische Anforderungsanalyse für die Sportart Judo erarbeitet. Basierend auf dieser Analyse wurden die Validität und die Reliabilität von kinetischen Parametern während Anrissbewegungen mit einem judospezifischen Ergometer-System (JERGo) untersucht. Zudem wurden die Zusammenhänge zwischen der Rumpfkraft und kinetischen Parametern bei judospezifischen Anrissbewegungen analysiert. Schließlich wurde die Wirksamkeit eines spezifischen Anrisstrainings am JERGo-System gegenüber einem Anrisstraining mit Partner auf kinetische Parameter und Muskelaktivität überprüft.
Die sportartspezifische Anforderungsanalyse wurde unter Berücksichtigung der metabolischen und muskulären Anforderungen sowie sportartspezifischen Verletzungsrisiken erarbeitet. An den zwei Querstudien bzw. einer Längsschnittstudie nahmen gesunde männliche Judoka mit unterschiedlichem Expertiseniveau teil. Die kinetischen Parameter bei judospezifischen Anrissbewegungen wurden mit dem JERGo-System in allen Experimentalstudien erfasst. Die Rumpfkraft wurde mit einem isokinetischen Dynamometer gemessen, um Assoziationen zwischen der Rumpfkraft und judospezifischen Anrissleistungen zu bestimmen. Zudem wurde die Aktivität ausgewählter Rumpf-/Schultermuskeln bei der Anrissbewegung im Standfür die Validierung des JERGo-Systems und für die Überprüfung der Effekte eines Anrisstrainings erfasst. Die Ermittlung von sportmotorischen Leistungen erfolgte durch die Übungen Liegend-Anreißen und Klimmziehen, um die Wirkungen eines judospezifischen Anrisstrainings auf sportartunspezifische Kraftleistungen zu untersuchen.
Unter Berücksichtigung der muskulären Anforderungen im Judo wird die Ausführung einer explosiven Anrissbewegung bzw. Wurftechnik durch die koordinierte Aktivität vieler Muskelgruppen und vor allem durch die unteren Extremitäten sowie den Rumpf realisiert. Aus trainingswissenschaftlicher Sicht ist das JERGo-System ein valides und reliables Messinstrument für die Diagnostik von kinetischen Parametern während judospezifischer Anrissbewegungen. Die Rumpfkraft, insbesondere bei der Rumpfrotation, ist mit kinetischen Parametern bei judospezifischen Anrissbewegungen assoziiert. Ein Anrisstraining am JERGo-System zeigt in den kinetischen Parametern und Muskelaktivierungen vor allem bei der Anrissbewegung im Stand signifikant größere Zuwachsraten im Vergleich zu einem Anrisstraining mit Partner.
Die Ergebnisse dieser Arbeit zeigen, dass die Verbesserung der muskulären Leistungsfähigkeit (z. B. Explosivkraft) in den unteren Extremitäten und der Rumpfmuskulatur eine wichtige Basis für judospezifische Anrissleistungen bei Anrissbewegungen und Wurftechniken darstellt. Zudem empfiehlt es sich, dass JERGo-System zur Diagnostik von kinetischen Parametern bei judospezifischen Anrissbewegungen in die judospezifische Testbatterie einzubinden. Weiterhin kann davon ausgegangen werden, dass durch rumpfextensions- und vor allem durch rumpfrotationskräftigende Übungen unter maximal schellkräftigender Muskelaktivierung Einfluss auf kinetische Parameter bei judospezifischen Anrissbewegungen genommen wird. Letztendlich empfiehlt es sich, ein Antrisstraining am JERGo-System in den judospezifischen Trainingsprozess zu integrieren.
Die Untersuchung widmet sich mit der Besteuerung von Ordensgemeinschaften einem bisher in der Rechtswissenschaft vernachlässigten Thema, aus dem größeren Themenbereich der Besteuerung des Dritten Sektors. Die Vernachlässigung verwundert, kommt den Ordensgemeinschaften doch seit Jahrhunderten mit denen von ihnen in Deutschland betriebenen sozialen Einrichtungen eine erhebliche Bedeutung zu. Die vorliegende Arbeit schließt diese Lücke in ansprechender Weise. Durch die Bearbeitung entsteht auch ein übergreifendes Bild des geltenden Besteuerungsregimes im Dritten Sektor und seiner Problemfelder.
Die Verweigerung des Militärdienstes und seine Folgen sind angesichts andauernder bewaffneter Konflikte immer häufiger Gegenstand von Asylanträgen. Die Autorin untersucht die Voraussetzungen für die Flüchtlingsanerkennung von Wehrdienstverweigerern anhand verschiedener Fallgruppen und unter Einbeziehung zahlreicher Entscheidungen von angloamerikanischen, europäischen und deutschen Gerichten. Dabei widmet sie sich dem Spannungsfeld zwischen dem Wehrdienst als Grundpflicht und dem Recht auf Kriegsdienstverweigerung aus Gewissensgründen. Zudem beleuchtet sie das Verhältnis des Flüchtlingsrechts zum humanitären Völkerrecht und Völkerstrafrecht, bettet also das Flüchtlingsrecht in andere Teilbereiche des Völkerrechts ein.
Hybride Gestaltungen gehören zu den wichtigsten Aufbauelementen von grenzüberschreitenden Steuergestaltungsmodellen und sind eines der komplexesten Themen des Internationalen Steuerrechts. Mit der Anti Tax Avoidance Directive (ATAD) hat der Unionsgesetzgeber den Mitgliedstaaten die rechtliche Verpflichtung auferlegt, die mit hybriden Gestaltungen einhergehenden Besteuerungsinkongruenzen durch Korrespondenzregelungen zu neutralisieren.
Das Werk durchdringt die einschlägigen Richtlinienvorschriften grundlegend und greift dabei die OECD-Regelungsempfehlungen zu BEPS-Aktionspunkt 2 auf. Dabei werden bedeutsame Divergenzen aufgezeigt und Zweifelsfragen diskutiert. Die Vorarbeiten dienen als Beurteilungsrahmen für den nachfolgend durchgeführten Abgleich mit dem deutschen Rechtsrahmen. Auf dieser Grundlage wird der verbleibende gesetzgeberische Umsetzungsbedarf identifiziert. Zum Abschluss wird der Entwurf des ATAD-Umsetzungsgesetzes kritisch gewürdigt.
Die wirtschaftliche Intensivierung des Profisports hat in den vergangenen Jahrzehnten zu einer Anpassung der Organisationsstrukturen des Sports geführt. Immer wieder wird hierbei die Frage aufgeworfen, inwiefern eine identitätsstiftende Rückkoppelung des Sports an seine Basis gewährleistet werden kann. In der Rechtspraxis steht hier die basisdemokratische Ausrichtung der im Sport vorherrschenden Rechtsform des eingetragenen Vereins im Spannungsverhältnis zu der Ausgliederung wirtschaftlicher Betätigung auf Kapitalgesellschaften.
Der Autor untersucht in diesem Kontext, inwiefern sich die Rechtsform der eingetragenen Genossenschaft als Rechtsform für den Sport eignet. Hierbei nimmer er Bezug auf die rechtliche Zulässigkeit, die Organisations- und Finanzverfassung, das mit der Rechtsform einhergehende genossenschaftliche Prüfwesen sowie die steuerrechtlichen Auswirkungen, und entwickelt konkrete Einsatzmöglichkeiten der eingetragenen Genossenschaft in der Organisationspyramide des Sports.
In beiden deutschen Teilstaaten gehörten die Rentenversicherungen zu den ersten Nutzern von Computern. Bereits seit Mitte der 1950er Jahre berechneten diese die Altersruhegelder im Westen, zehn Jahre später auch in der DDR. Die digitale Datenverarbeitung versprach große Rationalisierungs- und Beschleunigungseffekte. Gleichwohl führten die verschiedenen Staats- und Versicherungsformen zu einer unterschiedlichen Nutzung von Computern.
Die Studie von Thomas Kasper zeigt, unter welchen Bedingungen sich die elektronische Datenverarbeitung in der Sozialverwaltung durchsetzen konnte. Sie verdeutlicht, welchen bisher unbekannten Einfluss sie auf sozialpolitische Entscheidungen sowie auf die Arbeitsverhältnisse und den Datenschutz in beiden deutschen Teilstaaten hatte. Nach der Wiedervereinigung ließ nur die gemeinsame Nutzung der vorhandenen digitalen Strukturen die Zusammenführung beider Sozialsysteme gelingen.
Fiktion und Wirklichkeit
(2020)
Ein wesentlicher Grund für den fortdauernden wirtschaftlichen Rückstand Ostdeutschlands, im Vergleich zu Westdeutschland, liegt am geringeren Gewicht technologieintensiver Branchen und, damit zusammenhängend, an fehlenden regionalen Wachstumszentren („Clustern“). Die Économie des conventions (EC), ein wirtschaftswissenschaftliches und wirtschaftssoziologisches Paradigma, das in Frankreich in den 80er Jahren entstanden ist, ermöglicht die Analyse von Unternehmen und Märkten und wurde für die vorliegende Dissertation verwendet, um unterschiedliche „Qualitätskonventionen“ in einer vergleichenden Analyse in der west- und ostdeutschen Maschinenbaubranche zu identifizieren. Anhand von Studien des Instituts für Wirtschaftsforschung in Halle (IWH), der Baden-Württembergischen Landesregierung und des Verbandes des Deutschen Maschinen- und Anlagenbaus e. V. (VDMA) wurde das Feld auf fünf ostdeutsche und acht baden-württembergische Raumordungsregionen eingegrenzt und ein qualitativer Stichprobenplan entwickelt. Empirisch wurden 21 leitfadengestützte Experteninterviews mit Geschäftsführern der Maschinen- und Anlagenbaubranche durchgeführt, die mit der Qualitativen Inhaltsanalyse methodisch ausgewertet und dann mit Bezug zur EC zu Idealtypen verdichtet wurden.
Im Ost-West-Vergleich zeigte sich, dass für ostdeutsche Unternehmen eine Entwicklung hin zum Systemanbieter, die Projekte koordinieren (Netzwerkkonvention), um damit auf (internationalen) Märkten höhere Preise durchzusetzen (Marktkonvention), am vielversprechendsten ist. Damit einher geht der Aufbau und die Aufrechterhaltung von Netzwerken (Netzwerkkonvention), die Herausforderung besteht aber darin, auch mit Wettbewerbern (Marktkonvention) vertrauensvoll zusammen zu arbeiten. Des Weiteren zeigte sich, dass bei öffentlich geförderten Verbundprojekten („Clusterpolitik“) die Marktkonvention ebenfalls nicht dominant sein darf bzw. sie zumindest Kompromisse mit anderen Konventionen eingehen muss, damit diese Netzwerke nicht nach Ende der Förderperiode auseinander fallen. Diese Befunde decken sich mit Arbeiten aus der Wirtschaftsgeographie und verwandter Fächer, bei denen gezeigt wurde, dass erst ein Gebilde aus spezifischen regionale Institutionen technologisches Lernen ermöglicht bzw. dass insbesondere die gleichzeitige Ausprägung von Konkurrenz- und Kooperationsprinzipien („Coopetition“) auf der gleichen Wertschöpfungsstufe, es Unternehmen ermöglicht, neue wettbewerbsfähige Produkte auf den Markt zu bringen. Eine theoretisch fundierte Clusterpolitik sollte daher nicht nur Vernetzungsaktivitäten (Netzwerkkonvention), sondern auch den Wettbewerb (Marktkonvention) im Cluster mit fördern. Im Fazit wurden dann die Instrumente, die in der Literatur genannt werden, um vorhandene Clusterstrukturen weiter zu entwickeln, mit der rekonstruierten Typologie der Qualitätskonventionen verknüpft.
Die vorliegende Dissertationsschrift mit dem Titel: „Ruthenium(II)- und Rhenium(I)-Komplexe des 1,6,7,12-Tetraazaperylens und seiner Dimethyl- und Tetramethylderivate“ von Matthias Kirste wurde unter der Leitung des Herrn Prof. Dr. Hans-Jürgen Holdt am Institut für Chemie der Universität Potsdam angefertigt. Die Arbeit beschäftigt sich mit Ruthenium(II)- und Rhenium(I)-Komplexen des großflächigen Liganden 1,6,7,12-Tetraazaperylen (tape) und seiner 2,11-Dimethyl-(dmtape)- und 2,5,8,11-Tetramethyl-(tmtape)-derivate. Es wurden die bekannten Herstellungen des tape- sowie des dmtape-Liganden verbessert und die Synthese des tmtape-Liganden neu entwickelt. Zudem gelang mit einer neu entwickelten chemischen Reaktion die Synthese des dianionischen 3,10-Disulfonato-1,6,7,12-tetraazaperylens. Mit dmtape und tmtape wurde jeweils ein neuer Ruthenium(II)-Komplex hergestellt. Die Komplexe wurden photophysikalisch und elektrochemisch charakterisiert. KT-DNS-Interkalationen wurden von einkernigen Ruthenium(II)-Komplexen mit jeweils tape-, dmtape- und tmtape als interkalative Einheit vermessen. Es zeigte sich, dass diese Komplexe mit einer hohen Bindungsaffinität in die doppelsträngige KT-DNS interkalieren. Aus den mononuklearen Ruthenium(II)-Komplexen gelang die Herstellung von heterodinuklearen RuIIReI-Komplexen, die charakteristische Signale in ihren UV/Vis-Absorptionsspektren zeigen und sehr leicht jeweils ein- sowie zweifach im Bereich von 70 mV bis -80 mV und -440 mV bis -600 mV vs. GKE reduzierbar sind. Diese dmtape- sowie tmtape-verbrückten heterodinuklearen RuIIReI-Komplexe ermöglichen eine Feinjustierung ihrer photophysikalischen und elektrochemischen Eigenschaften, wobei in dieser Arbeit mithilfe einer chemischen Reaktion eine gezielte Einstellung dieser Eigenschaften gezeigt werden konnte. Metallkomplexe mit solchen charakteristischen, leicht einstellbaren photophysikalischen sowie elektrochemischen Eigenschaften sind geeignete Sensor- und Elektronen-Shuttle-Moleküle besonders für bioanalytische Einsatzgebiete. Zudem könnten die vielen Einstellmöglichkeiten der elektronischen Struktur dieser Komplexe sehr interessant für katalytische Anwendungen sein.
In dieser Arbeit wurden Nano-Elektroden-Arrays zur Einzel-Objekt-Immobilisierung mittels Dielektrophorese verwendet. Hierbei wurden fluoreszenzmarkierte Nano-Sphären als Modellsystem untersucht und die gewonnenen Ergebnisse auf biologische Proben übertragen. Die Untersuchungen in Kombination mit verschiedenen Elektrodenlayouts führten zu einer deterministischen Vereinzelung der Nano-Sphären ab einem festen Größenverhältnis zwischen Nano-Sphäre und Durchmesser der Elektrodenspitzen. An den Proteinen BSA und R-PE konnte eine dielektrophoretische Immobilisierung ebenfalls demonstriert und R-PE Moleküle zur Vereinzelung gebracht werden. Hierfür war neben einem optimierten Elektrodenlayout, das durch Feldsimulationen den Feldgradienten betreffend gesucht wurde, eine Optimierung der Feldparameter, insbesondere von Spannung und Frequenz, erforderlich.
Neben der Dielektrophorese erfolgten auch Beobachtungen anderer Effekte des elektrischen Feldes, wie z.B. Elektrolyse an Nano-Elektroden und Strömungen über dem Elektroden-Array, hervorgerufen durch Joulesche Wärme und AC-elektroosmotischen Fluss. Zudem konnte Dielektrophorese an Silberpartikeln beobachtet werden und mittels Fluoreszenz-, Atom-Kraft-, Raster-Elektronen-Mikroskopie und energiedispersiver Röntgenspektroskopie untersucht werden. Schließlich wurden die verwendeten Objektive und Kameras auf ihre Lichtempfindlichkeit hin analysiert, so dass die Vereinzelung von Biomolekülen an Nano-Elektroden nachweisbar war.
Festzuhalten bleibt also, dass die Vereinzelung von Nano-Objekten und Biomolekülen an Nano-Elektroden-Arrays gelungen ist. Durch den parallelen Ansatz erlaubt dies, Aussagen über das Verhalten von Einzelmolekülen mit guter Statistik zu treffen.
Die Umsatzbesteuerung staatlichen Handelns scheint widersinnig. Zum Schutz des freien Wettbewerbs kann dies jedoch geboten sein. Die steuerliche Definition des Wettbewerbsbegriffes, des Marktes sowie der wirtschaftlichen Tätigkeit führt dazu, dass staatliches und privates Handeln konsequent anhand des Wettbewerbskriteriums getrennt werden müssen. Für die Frage der Steuerbarkeit ist dann nicht mehr entscheidend, ob der Staat in Rechtsform einer GmbH als juristische Person des Privatrechts oder als juristische Person des öffentlichen Rechts gehandelt hat. Das in dieser Arbeit entwickelte Verständnis des Wettbewerbsbegriffs zeigt auch die Schwächen des neuen §2b Umsatzsteuergesetz auf und macht einen Rückgriff auf das Europarecht weiterhin zwingend notwendig.
Die Ordnung der Religionen
(2020)
Der römische Adlige und Humanist Pietro Della Valle bereist von 1614 bis 1626 das Osmanische Reich, Persien und Indien. In einer Zeit des Umbruchs sucht er nach neuen Allianzen für Rom: Gegen die Reformatoren will er die Einheit mit den orientalischen Christen wiederherstellen. Gegen die Osmanen sucht er ein Bündnis mit dem schiitischen Schah Abbas I. zu schließen. Sein Reisebericht, die „Viaggi“ (3 Teile, 1650-63), dokumentiert seine Ambitionen und enthält umfangreiche Erläuterungen zu vielen Religionen Asiens, die damals wie heute im Zentrum des Interesses stehen.
In der Form einer Begriffs- und Ideengeschichte untersuche ich in den „Viaggi“, welche Rolle Religion in den damaligen Auseinandersetzungen spielt und wie sich Della Valle mit der großen religiösen Vielfalt Asiens auseinandersetzt. Welche Hoffnungen und Befürchtungen verbindet er mit den verschiedenen Religionen? Welche Strategien verfolgt er in Bezug auf sie? Wo zieht er Grenzen und wo baut er Brücken?
Die vorliegende Arbeit widmet sich subjektiven Kompetenzeinschätzungen Lehramtsstudierender in einem zentralen Element des Lehramtsstudiums – den schulischen Praxisphasen. Dabei stehen Selbstwirksamkeitserwartungen als bedeutender Aspekt professioneller Kompetenz sowie deren Bedeutung für das Beraten im schulischen Bereich und für den Umgang mit Beanspruchungsfolgen im Mittelpunkt der Arbeit.
Im ersten Abschnitt werden Ansätze zur Professionsforschung im Lehrberuf sowie das Modell der professionellen Kompetenz dargestellt (Baumert & Kunter, 2011). Zudem werden individuelle Eingangsvoraussetzungen Lehramtsstudierender wie Persönlichkeitsmerkmale und pädagogische Vorerfahrungen als bedeutende Determinanten für den Erwerb professioneller Kompetenz betrachtet (Kunter, Kleickmann, Klusmann & Richter, 2011). Anschließend werden Lerngelegenheiten und zentrale Zielstellungen spezifiziert, die für schulische Praxisphasen kennzeichnend sind (König & Rothland, 2018). Dabei steht das Praxissemester als bedeutende Phase der Schulpraktischen Studien im Mittelpunkt der Betrachtung. Zudem werden spezifische Herausforderungen gekennzeichnet, die mit schulischen Praxisphasen verbunden sind sowie damit in Zusammenhang stehende Belastungen und Beanspruchungsfolgen (z.B. Keller-Schneider 2016b). Anschließend wird die empirische Befundlage zu negativen Beanspruchungsfolgen in schulischen Praxisphasen dargelegt und es wird auf essentielle Ressourcen im Umgang mit emotionaler Erschöpfung und reduzierter Leistungsfähigkeit eingegangen (z.B. Rothland & Klusmann, 2016). Zum einen wird die Bedeutsamkeit sozialer Unterstützung durch Mentoring als zentrale umgebungsbezogene Ressource spezifiziert, zum anderen werden Selbstwirksamkeitserwartungen als bedeutende personengebundene Ressource betrachtet. Danach wird auf den hochrelevanten Kompetenzaspekt Beraten eingegangen. Dabei werden spezifische Fähigkeiten betrachtet, die essentiell für die schulische Beratungsarbeit sind sowie besondere Merkmale, Formen und Beratungsanlässe. Zudem werden Möglichkeiten zur Erfassung von Beratungskompetenz aufgezeigt sowie damit verbundene Forschungsdesiderate. Abschließend wird der Blick auf die Förderung von Beratungskompetenz im Lehramtsstudium gerichtet. Am Ende des Theoriekapitels werden die Forschungsfragen systematisiert, die sich aus der dargestellten Befundlage ergeben sowie damit in Verbindung stehende Forschungsdesiderate.
Studie 1 widmet sich der Fragestellung inwieweit Selbstwirksamkeitserwartungen und soziale Unterstützung durch Mentoring bedeutend sind für den Umgang mit negativen Beanspruchungsfolgen von Burnout wie emotionaler Erschöpfung und verminderter Leistungsfähigkeit. Zudem wird untersucht, inwieweit Mentoring den Effekt von Selbstwirksamkeitserwartungen auf die benannten Burnout-Dimensionen moderiert. In der längsschnittlichen Studie konnte anhand der Daten von 192 Lehramtsstudierenden im Praxissemester gezeigt werden, dass hohe Selbstwirksamkeitserwartungen zu Beginn des Praxissemesters mit geringerer emotionaler Erschöpfung als auch mit höherer Leistungsfähigkeit zum Ende des Praxissemesters einhergehen. Zudem konnte gezeigt werden, dass der Effekt von Selbstwirksamkeitserwartungen auf Leistungsfähigkeit durch Mentoring moderiert wird. Zur Auswertung der Daten wurden multiple Regressionsanalysen berechnet.
Studie 2 widmet sich der Entwicklung und Validierung einer Skala zur Erfassung der Beratungskompetenz, die bereits im Rahmen des Lehramtsstudiums eingesetzt werden kann. In Faktorenanalysen konnte mithilfe der Daten von 200 Lehramtsstudierenden gezeigt werden, dass sich Beratungskompetenz anhand von vier Subskalen beschreiben lässt. Die Skalen wurden als Personale Ressourcen, Kooperation- und Perspektivenübernahme, Berater-Skills sowie Ressourcen- und Lösungsorientierung bezeichnet und erwiesen sich hinsichtlich der internen Konsistenz insgesamt als akzeptabel. Für die einzelnen Subskalen ergaben sich zudem schwache bis mittlere Zusammenhänge mit den Validierungsvariablen Selbstwirksamkeit in Beratungen, der Beratungsmotivation sowie Pädagogische Vorerfahrungen.
Studie 3 ging der Frage nach, inwieweit zentrale individuelle Eingangsvoraussetzungen von Lehramtsstudierenden wie Persönlichkeitsmerkmale und pädagogische Vorerfahrungen bedeutend sind für Selbstwirksamkeitserwartungen in Schüler-Beratungen. Ebenfalls basierend auf Fragebogendaten von 200 Praxissemesterstudierenden konnte anhand multipler Regressionsanalysen gezeigt werden, dass hohe Offenheit für neue Erfahrungen und geringer Neurotizismus mit hohen Selbstwirksamkeitserwartungen einhergehen. Zudem stehen pädagogische Vorerfahrungen in positivem und signifikantem Zusammenhang mit Selbstwirksamkeitserwartungen. Die Studie widmet sich abschließend insbesondere der Förderung von Beratungskompetenz im Lehramtsstudium.
In Studie 4 wird ein Seminarbaustein präsentiert, mithilfe dessen Beratungskompetenz im Lehramtsstudium gefördert werden kann. Mit dem Konzept können sämtliche Aspekte professioneller Kompetenz im Bereich Beraten sowohl theoretisch vermittelt als auch praktisch erprobt werden. Die Rückmeldungen von Lehramtsstudierenden, die den Seminarbaustein erprobt haben, geben erste Hinweise darauf, dass Fähigkeiten im Bereich schulischer Beratungen gefördert werden können.
Die vorliegende Arbeit wird durch die Gesamtdiskussion der Ergebnisse beendet und es werden Grenzen der Arbeit, Anschlussfragen und pädagogischen Implikationen besprochen.
Die Entwicklung einer Theorie zur schulischen Inklusion ist das zentrale Thema der Dissertation. Die Autorin nutzt empirische Analysen zur Umsetzung inklusiven Lernens sowie Daten zu sonderpädagogischen Förderschwerpunkten an inklusiven Grundschulen für die Erarbeitung von Bedingungen und Formen eines inklusiven Schulsystems. Empirische Daten zur Umsetzung inklusiver Bildung liegen aus vielen Bundesländern vor, es fehlte jedoch eine forschungsleitende Theorie zur Einordnung und Analyse der Daten. Jennifer Lambrecht hat diese Theorie auf Grundlage der Systemtheorie Luhmanns entwickelt. Sie differenziert zwischen Schulsystemen und verortet unterschiedliche Inklusionsverständnisse. Im Ergebnis entwickelt sie fünf Thesen zur schulischen Inklusion im allgemeinen Schulsystem und im Sonderschulsystem. Die Dissertation, die ein hochaktuelles Thema der empirischen Bildungsforschung behandelt, regt zum Mit- und Nachdenken an und generiert neue, interessante Forschungsfragen.
Matthias Walden
(2020)
Matthias Walden (1927–1984) war einer der Vertreter eines politischen Neuanfangs im Journalismus in Deutschland nach 1945. Im Kern seines politischen Denkens stand die Verteidigung der liberalen Demokratie, deren ideellen Gehalt Walden sowohl durch eine personelle Kontinuität in der Bundesrepublik Deutschland zum Nationalsozialismus als auch durch die von ihm als Anbiederung empfundene Neue Ostpolitik und den gesellschaftlichen Protest der 1960er und 1970er Jahre in Gefahr sah.
Als profilierter Leitartikler wurde er vor allem für den Verlag Axel Springer zu einem intellektuellen Impulsgeber. Walden war überzeugt, Diktaturen und totalitäre Gesellschaftsentwürfe sähen immer nur so aus, als wären sie für die Ewigkeit gemacht. Im Kalten Krieg gab ihm gerade die Unmenschlichkeit der kommunistischen Regime die Gewissheit, dass diese einst verschwinden würden.
Nils Lange legt mit seiner intellektuellen Biographie von Matthias Walden die erste umfassende Arbeit über diesen streitbaren Journalisten vor. Er arbeitet sowohl die politischen als auch die ideengeschichtlichen Ursprünge von Waldens Denken heraus.
Die Arbeit beleuchtet das besondere öffentliche Interesse an der Strafverfolgung in seiner Gesamtheit. Im ersten Teil der Arbeit werden insbesondere die formellen Aspekte rund um das besondere öffentliche Interesse untersucht. Im Zentrum stehen hierbei die besonders problematischen Aspekte der Frage nach der Prozessvoraussetzung und der gerichtlichen Überprüfbarkeit. Aufgezeigt wird, dass das besondere öffentliche Interesse tatsächlich vorliegen und dessen Vorliegen vom mit der Sache befassten Gericht vollständig überprüft werden muss. Im zweiten Teil geht es um die inhaltliche Auslegung des besonderen öffentlichen Interesses. Nachdem kurz der derzeitige Forschungsstand aufgezeigt wird, wird zunächst die Frage erörtert, ob das besondere öffentliche als ein gegenüber dem öffentlichen Interesse gesteigerter Begriff anzusehen ist, was verneint wird. Anschließend wird der eigene Auslegungsansatz erarbeitet, der das besondere öffentliche Interesse als Ergebnis einer Abwägung begreift.
Kohärenz und Kreativität
(2020)
Grenzen des Organiesierbaren
(2020)
Interessiert man sich für den gesellschaftlichen Einfluss der Organisationssoziologie auf die Praxis des Organisierens, so muss der Befund ernüchtern. Stärker als auf organisationssoziologische Wissensbestände wird in Unternehmen oder Verwaltungen auf aktuelle Managementtrends rekurriert. Man könnte diesen Befund beklagen und als fehlerhafte Rezeption der Praxis beiseitelegen. Alternativ ließe sich aber auch diskutieren, welchen Beitrag die Disziplin selbst zu dieser Rezeption leistet. Mit einer solchen Diskussion begibt man sich fast unweigerlich auf einen schwierigen Pfad. Zum einen kann die Soziologie gerade dann, wenn sie ihren Blick auf die Erforschung von Unternehmen oder Verwaltungen richtet, nicht die von der Praxis erwarteten positiven Antworten liefern. Gerade die Organisationssoziologie begibt sich zum anderen jedoch in direkte Konkurrenz zu Nachbardisziplinen wie die Betriebswirtschaftslehre oder die Organisationspsychologie, die die Rezeptionsfähigkeit ihrer Wissensbestände im Praxisfeld in den letzten Jahren unter Beweis gestellt haben. Die Erwartungen an die Umsetzbarkeit wissenschaftlicher Erkenntnisse in der Praxis sind dadurch gestiegen. Eine Soziologie, die ihre Erkenntniskraft in der kritischen Distanz sieht, mag das skeptisch stimmen. Es gilt daher, die Frage zu beantworten, wie die Praxisrelevanz einer Wissenschaft des zweiten Blicks auf Organisationen konkret aussehen kann. Diesem Vorhaben widmet sich das vorgelegte Promotionsprojekt. Die in der kumulativen Dissertation versammelten Beiträge verstehen sich allesamt als Erkundungen und Erprobungen der Praxisrelevanz der Organisationssoziologie anhand aktueller Managementfragen in Unternehmen. Die These lautet dabei, dass sich diese Praxisrelevanz nur als Kritik entfalten kann. Eine solche Kritik kann dabei zwei grundsätzliche Formen annehmen: Als Strukturkritik bezieht sie sich auf konkrete Organisationen, deren spezifische Eigenlogiken und strukturelle Verstrickungen. Sie beschreibt dabei für den Einzelfall Funktionen und Folgen von Erwartungsstrukturen, die sich dann z. B. fallvergleichend generalisieren oder typisieren lassen. Organisationssoziologische Strukturkritik kann sich damit sowohl als vergleichender, praxissensibler Forschungsansatz realisieren, als auch die Grundlage einer soziologisch orientierten Beratung bilden. Als Schematakritik richtet sie sich gegen verkürzte Vorstellungen des Organisierens, die sich etwa in Managementmoden finden lassen. Dem Kumulus zugrunde liegen fünf Beiträge, die konkrete Ausprägungen beider Kritikformen ausloten. Der erste Beitrag „Datafizierung und Organisation“ zeigt, wie Schematakritik an Nachbardisziplinen aussehen kann, indem er Organisation als blinden Fleck der Digitalisierungsforschung diskutiert und Anschlussstellen für interdisziplinäre Forschung ausweist. Daher liefert der Beitrag einen systematischen Zugang zu organisationalen Implikationen der Digitalisierung. Neben der Anreicherung der Digitalisierungsforschung kann die entwickelte Argumentation auch für die Praxis Erkenntniskraft haben, indem z. B. problematisiert wird, dass im Managementdiskurs um Digitalisierung überzogene Rationalisierungserwartungen herrschen oder durch digitale Infrastrukturen entstehende Informalitäten systematisch ausgeblendet werden Der zweite Beitrag „Führung als erfolgreiche Einflussnahme in kritischen Momenten“ legt eine Umdeutung des populären Managementbegriffs Führung durch Schematakritik vor. Damit trägt er in mehrfacher Hinsicht zu einer praxisrelevanten Neubestimmung von Führung bei. Für Führungskräfte ermöglicht er beispielsweise die Einsicht, dass sie ihre Führungsaufgaben auf kritische Momente konzentrieren können und postuliert die Abkehr vom heroischen Bild des dauerhaft Führenden. Diese Umdeutung kann auch für Führungskräfte in Organisationen entlastend sein, weist sie doch auf den Zusammenhang zwischen der organisationalen Verfasstheit und Führungschancen hin und eröffnet damit Gestaltungschancen jenseits der Führungskräfte- und Personalentwicklung. Für die Organisationsforschung liefert der Beitrag einen theoretisch integrierten Führungsbegriff, der Führung sowohl organisational als auch situativ bestimmt. Er steht somit exemplarisch für eine organisationssoziologische Schematakritik, die etablierte Managementbegriffe neu deutet. Der dritte Beitrag kritisiert mit dem Konzept der transformationalen Führung eine Managementmode und zeigt auf, wie das darin enthaltene Führungsmodell durch die Bildung moralischer Kategorien Organisationsprobleme auf Organisationsmitglieder (hier: Führungskräfte) verschiebt. Es wird einerseits eine organisationssoziologische Kritik am populären Managementkonzept der transformationalen Führung vorgelegt. Andererseits verdeutlicht der Beitrag anhand systemtheoretischer Konzepte wie elementarer Verhaltensweisen, Moral oder Rollentrennung exemplarisch, dass organisationssoziologisches Denken den Managementdiskurs bereichern kann, indem es Verkürzungen und Simplifizierungen aufdeckt und alternative Analyse- und Gestaltungsansätze bereitstellt. Dafür lässt sich auch im Praxisdiskurs Gehör finden, weil man annehmen darf, dass mit den Heilsversprechen von Kompaktlösungen auch Enttäuschungen einhergehen, für die die Organisationssoziologie Erklärungen liefern kann. Die Möglichkeiten und Grenzen von Strukturkritik werden in den letzten beiden Beiträgen diskutiert. Das Potenzial von Strukturkritik für die soziologisch orientierte Beratung von Organisationen exploriert der Beitrag „Die schwierige Liaison von Organisationssoziologie und Praxisbezug am Beispiel der Beratung“. Ausgehend vom Theorie-Praxis-Komplex wird eruiert, wie soziologischer Praxisbezug im Feld der Beratung aussehen kann. Dafür systematisiert der Beitrag organisationssoziologische Ansätze von Beratung und zeigt auf, wie ein genuin soziologischer Beratungsansatz aussehen könnte. Der letzte Beitrag stellt Grundzüge einer Methodologie strukturkritischer Forschung vor und illustriert diese an einem durchgeführten Forschungsprojekt zu Managementmoden. Anhand der Forschung in einem Produktionsbetrieb wird gezeigt, wie strukturkritische Forschung konkret aussehen kann. Solch strukturkritische Forschung steht im Forschungsprozess vor drei Herausforderungen: dem qualitativ hochwertigen Feldzugang, der Entwicklung einer für Forschung und Praxis instruktiven Fragestellung und der Rückspiegelung der Ergebnisse in das Feld. Der Beitrag stellt Grundzüge einer Methodologie strukturkritischer Organisationsforschung vor, die sich sachlich, zeitlich und sozial entlang der drei beschriebenen Momente des Feldzugangs, der Ausgangsfragestellung und der Rückspiegelung der Ergebnisse spezifizieren lassen.
Grenzen des Organisierbaren
(2020)
Die Praktische Fahrerlaubnisprüfung dient der Erfassung und Beurteilung der Fahrkompe-tenz von Fahrerlaubnisbewerbern. Die aus dieser Prüfung gewonnenen Rückschlüsse auf das Niveau der Fahrkompetenz sollen insbesondere auch der Weiterentwicklung des Bewerbers dienen. Bisher erhalten Bewerber nur bei nicht bestandener Praktischer Fahrerlaubnisprü-fung eine Auflistung der wichtigsten Fehler, die zum Nichtbestehen geführt haben. Für ein zielgerichtetes Weiterlernen ist es aber notwendig, dass die Ergebnisse der Leistungserfas-sung und der Leistungsbewertung gemäß prüfungsdidaktischer Grundsätze pädagogisch an-spruchsvoll an alle Fahranfänger (unabhängig vom Prüfungsergebnis) zurückgemeldet wer-den.
Das Ziel der vorliegenden Arbeit besteht darin, die Gestaltungsgrundlagen und einen Umset-zungsvorschlag für ein kompetenzbezogenes und lernförderliches Rückmeldesystem für die Praktische Fahrerlaubnisprüfung zu erarbeiten. Dieses Rückmeldesystem soll in der Praxis erprobt werden. Darüber hinaus sollen anhand einer Bewerberbefragung zur Nutzerzufrie-denheit Erkenntnisse für die Weiterentwicklung gewonnen werden. Der Entwicklungs- und Erprobungsprozess des optimierten Rückmeldesystems lässt sich in drei Projektphasen auf-teilen:
1. Im Zuge der Optimierungsarbeiten zur Praktischen Fahrerlaubnisprüfung wurde in der ersten Projektphase ein neues Rückmeldesystem erarbeitet, das aus einem kompetenz-bezogenen mündlichen Auswertungsgespräch und einer ergänzenden schriftlichen Rückmeldung einschließlich weiterführender Lernhinweise für alle Bewerber besteht. Dieses Rückmeldesystem soll einerseits die Fahranfänger dabei unterstützen, die Leis-tungsbewertung inhaltlich besser zu verstehen sowie ein zielgerichtetes Weiterlernen ermöglichen. Andererseits soll es die Bewerber dazu motivieren, die festgestellten Kompetenzdefizite weiter zu bearbeiten, und dadurch Lernzuwachs fördern.
2. Das Rückmeldesystem wurde in der zweiten Projektphase in verschiedenen Modell-
regionen Deutschlands anhand von ca. 9.000 realen Praktischen Fahrerlaubnisprüfun-gen erprobt. Die Fahrerlaubnisbewerber, die in den Modellregionen an einer optimier-ten Praktischen Fahrerlaubnisprüfung teilgenommen und somit eine schriftliche Rückmeldung gemäß der optimierten Vorgaben bzw. einen individuellen Zugangscode zum Downloadbereich erhalten haben, wurden zu einer Befragung eingeladen. Dabei wurden vor allem Aspekte der Akzeptanz und der Lernwirksamkeit aus Sicht der Be-werber erfasst. Ziel war es, die Qualität der verkehrspädagogischen Gestaltung des Rückmeldesystems und seinen Nutzen zu untersuchen, um die erprobte Rückmeldung weiterzuentwickeln. Für die Bewerberbefragung wurde eine Onlinebefragung mit ei-nem standardisierten Fragebogen durchgeführt.
3. Die Erprobungs- und Befragungsergebnisse dienten in der dritten Projektphase der Ableitung von Schlussfolgerungen für die Weiterentwicklung des Rückmeldesystems. Die vorliegenden Ergebnisse der Felderprobung deuten darauf hin, dass die Bereitstel-lung einer schriftlichen, ausführlichen Rückmeldung zu den Prüfungsleistungen der Praktischen Fahrerlaubnisprüfungen insgesamt als nützlich und gewinnbringend ange-sehen wird. Allerdings wurde auch deutlich, dass bezüglich der Umsetzung noch Op-timierungspotenzial besteht. Im Anschluss an die Erprobung wurde die schriftliche Rückmeldung daher – ausgehend von den Nutzererfahrungen während der Felderpro-bung – umfassend überarbeitet und eine revidierte Version vorgelegt.
Als Ergebnis der Arbeit liegt ein in mehreren Schritten entwickeltes, empirisch fundiertes und erprobtes Rückmeldesystem vor, das eine differenzierte Kompetenzrückmeldung er-möglicht. Die umfassende Rückmeldung bietet künftig einerseits eine verbesserte Ausgangs-lage für eine ggf. anschließende Wiederholungsprüfung und andererseits ist es dem Bewer-ber anhand der aufgezeigten Stärken und Schwächen auch nach einer bestandenen Prüfung möglich, diese Rückmeldung für das weitere Lernen zu nutzen.
In der vorliegenden Arbeit wird untersucht, in wie weit physikalische Experimente ein flow-Erleben bei Lernenden hervorrufen. Flow-Erleben wird als Motivationsursache gesehen und soll den Weg zu Freude und Glück darstellen. Insbesondere wegen dem oft zitierten Fachkräftemangel in naturwissenschaftlichen und technischen Berufen ist eine Motivationssteigerung in naturwissenschaftlichen Unterrichtsfächern wichtig. Denn trotz Leistungssteigerungen in internationalen Vergleichstests möchten in Deutschland deutlich weniger Schüler*innen einen solchen Beruf ergreifen als in anderen Industriestaaten. Daher gilt es, möglichst früh Schüler*innen für naturwissenschaftlich-technische Fächer zu begeistern und insbesondere im regelrecht verhassten Physikunterricht flow-Erleben zu erzeugen.
Im Rahmen dieser Arbeit wird das flow-Erleben von Studierenden in klassischen Laborexperimenten und FELS (Forschend-Entdeckendes Lernen mit dem Smartphone) als Lernumgebung untersucht. FELS ist eine an die Lebenswelt der Schüler*innen angepasste Lernumgebung, in der sie mit Smartphones ihre eigene Lebenswelt experimentell untersuchen.
Es zeigt sich, dass sowohl klassische Laborexperimente als auch in der Lebenswelt durchgeführte, smartphonebasierte Experimente flow-Erleben erzeugen. Allerdings verursachen die smartphonebasierten Experimente kaum Stressgefühle.
Die in dieser Arbeit herausgefundenen Ergebnisse liefern einen ersten Ansatz, der durch Folgestudien erweitert werden sollte.
Die Fehlerkorrektur in der Codierungstheorie beschäftigt sich mit der Erkennung und Behebung von Fehlern bei der Übertragung und auch Sicherung von Nachrichten.
Hierbei wird die Nachricht durch zusätzliche Informationen in ein Codewort kodiert.
Diese Kodierungsverfahren besitzen verschiedene Ansprüche, wie zum Beispiel die maximale Anzahl der zu korrigierenden Fehler und die Geschwindigkeit der Korrektur.
Ein gängiges Codierungsverfahren ist der BCH-Code, welches industriell für bis zu vier Fehler korrigiere Codes Verwendung findet. Ein Nachteil dieser Codes ist die technische Durchlaufzeit für die Berechnung der Fehlerstellen mit zunehmender Codelänge.
Die Dissertation stellt ein neues Codierungsverfahren vor, bei dem durch spezielle Anordnung kleinere Codelängen eines BCH-Codes ein langer Code erzeugt wird. Diese Anordnung geschieht über einen weiteren speziellen Code, einem LDPC-Code, welcher für eine schneller Fehlererkennung konzipiert ist.
Hierfür wird ein neues Konstruktionsverfahren vorgestellt, welches einen Code für einen beliebige Länge mit vorgebbaren beliebigen Anzahl der zu korrigierenden Fehler vorgibt. Das vorgestellte Konstruktionsverfahren erzeugt zusätzlich zum schnellen Verfahren der Fehlererkennung auch eine leicht und schnelle Ableitung eines Verfahrens zu Kodierung der Nachricht zum Codewort. Dies ist in der Literatur für die LDPC-Codes bis zum jetzigen Zeitpunkt einmalig.
Durch die Konstruktion eines LDPC-Codes wird ein Verfahren vorgestellt wie dies mit einem BCH-Code kombiniert wird, wodurch eine Anordnung des BCH-Codes in Blöcken erzeugt wird. Neben der allgemeinen Beschreibung dieses Codes, wird ein konkreter Code für eine 2-Bitfehlerkorrektur beschrieben. Diese besteht aus zwei Teilen, welche in verschiedene Varianten beschrieben und verglichen werden. Für bestimmte Längen des BCH-Codes wird ein Problem bei der Korrektur aufgezeigt, welche einer algebraischen Regel folgt.
Der BCH-Code wird sehr allgemein beschrieben, doch existiert durch bestimmte Voraussetzungen ein BCH-Code im engerem Sinne, welcher den Standard vorgibt. Dieser BCH-Code im engerem Sinne wird in dieser Dissertation modifiziert, so dass das algebraische Problem bei der 2-Bitfehler Korrektur bei der Kombination mit dem LDPC-Code nicht mehr existiert. Es wird gezeigt, dass nach der Modifikation der neue Code weiterhin ein BCH-Code im allgemeinen Sinne ist, welcher 2-Bitfehler korrigieren und 3-Bitfehler erkennen kann. Bei der technischen Umsetzung der Fehlerkorrektur wird des Weiteren gezeigt, dass die Durchlaufzeiten des modifizierten Codes im Vergleich zum BCH-Code schneller ist und weiteres Potential für Verbesserungen besitzt.
Im letzten Kapitel wird gezeigt, dass sich dieser modifizierte Code mit beliebiger Länge eignet für die Kombination mit dem LDPC-Code, wodurch dieses Verfahren nicht nur umfänglicher in der Länge zu nutzen ist, sondern auch durch die schnellere Dekodierung auch weitere Vorteile gegenüber einem BCH-Code im engerem Sinne besitzt.
Nach lavierenden obiter dicta entspricht die Steueranspruchstheorie wieder der gefestigten Rechtsprechung des 1. Strafsenates des BGH (zuletzt: BGH, Beschl. v. 1.4.2020 – 1 StR 5/20, BeckRS 2020, 23245). Für den prozessualen Nachweis des Steuerhinterziehungsvorsatzes ist damit erforderlich, dass der Steuerpflichtige auch in rechtlicher Hinsicht den verletzten Steueranspruch kannte. Die vorliegende Rechtsprechungsanalyse zum straf- und finanzgerichtlichen Vorsatznachweis bei § 370 AO zeigt, dass die Judikatur mit diesem Konzept besser umgeht als vielfach unterstellt.
Insoweit wird herausgearbeitet, dass die Rechtsprechung mit einem hinreichend etablierten Kanon an Indizien operiert, welche berechtigterweise den Schluss auf vorsätzliches Handeln zulassen. Zugleich kommt die Untersuchung zu dem Ergebnis, dass die Rechtsprechung ebenfalls konsistent entlastende Umstände würdigt und bei entsprechender Indizienlage einen vorsatzausschließenden Irrtum feststellt. Als weiteres Ergebnis liefert die Untersuchung zugleich eine Leitlinie für den Tatrichter bei der Vorsatzfeststellung im Steuerstrafverfahren.
In unserer digitalisierten Welt verlagert sich das Lernen in die Cloud. Vom Unterricht in der Schule und der Tafel zum Tablet, hin zu einem lebenslangen Lernen in der Arbeitswelt und sogar darüber hinaus. Wie erfolgreich und attraktiv dieses zeitgemäße Lernen erfolgt, hängt nicht unwesentlich von den technologischen Möglichkeiten ab, die digitale Lernplattformen rund um MOOCs und Schul-Clouds bieten.
Bei deren Weiterentwicklung sollten statt ökonomischen Messgrößen und KPIs die Lernenden und ihre Lernerfahrungen im Vordergrund stehen.
Hierfür wurde ein Optimierungsframework entwickelt, das für die Entwicklung von Lernplattformen anhand verschiedener qualitativer und quantitative Methoden Verbesserungen identifiziert, priorisiert und deren Beurteilung und Umsetzung steuert.
Datengestützte Entscheidungen sollten auf einer ausreichenden Datenbasis aufbauen. Moderne Web-Anwendungen bestehen aber oft aus mehreren Microservices mit jeweils eigener Datenhaltung. Viele Daten sind daher nicht mehr einfach zugänglich. Daher wird in dieser Arbeit ein Learning Analytics Dienst eingeführt, der diese Daten sammelt und verarbeitet. Darauf aufbauend werden Metriken eingeführt, auf deren Grundlage die erfassten Daten nutzbar werden und die somit zu verschiedenen Zwecken verwendet werden können.
Neben der Visualisierung der Daten in Dashboards werden die Daten für eine automatisierte Qualitätskontrolle herangezogen. So kann festgestellt werden, wenn Tests zu schwierig oder die soziale Interaktion in einem MOOC zu gering ist.
Die vorgestellte Infrastruktur lässt sich aber auch verwenden, um verschiedene A/B/n-Tests durchzuführen. In solchen Tests gibt es mehrere Varianten, die an verschiedene Nutzergruppen in einem kontrollierten Experiment erprobt werden. Dank der vorgestellten Testinfrastruktur, die in der HPI MOOC Plattform eingebaut wurde, kann ermittelt werden, ob sich für diese Gruppen statistisch signifikante Änderungen in der Nutzung feststellen lassen. Dies wurde mit fünf verschiedenen Verbesserungen der HPI MOOC Plattform evaluiert, auf der auch openHPI und openSAP basieren.
Dabei konnte gezeigt werden, dass sich Lernende mit reaktivierenden Mails zurück in den Kurs holen lassen. Es ist primär die Kommunikation der unbearbeiteten Lerninhalte des Nutzers, die eine reaktivierende Wirkung hat.
Auch Übersichtsmails, die die Forenaktivität zusammenfassen, haben einen positiven Effekt erzielt.
Ein gezieltes On-Boarding kann dazu führen, dass die Nutzer die Plattform besser verstehen und hierdurch aktiver sind.
Der vierte Test konnte zeigen, dass die Zuordnung von Forenfragen zu einem bestimmten Zeitpunkt im Video und die grafische Anzeige dieser Informationen zu einer erhöhten Forenaktivität führt.
Auch die experimentelle Erprobung von unterschiedlichen Lernmaterialien, wie sie im fünften Test durchgeführt wurde, ist in MOOCs hilfreich, um eine Verbesserung der Kursmaterialien zu erreichen.
Neben diesen funktionalen Verbesserungen wird untersucht wie MOOC Plattformen und Schul-Clouds einen Nutzen bieten können, wenn Nutzern nur eine schwache oder unzuverlässige Internetanbindung zur Verfügung steht (wie dies in vielen deutschen Schulen der Fall ist). Hier wird gezeigt, dass durch ein geschicktes Vorausladen von Daten die Internetanbindungen entlastet werden können. Teile der Lernanwendungen funktionieren dank dieser Anpassungen, selbst wenn keine Verbindung zum Internet besteht.
Als Letztes wird gezeigt, wie Endgeräte sich in einem lokalen Peer-to-Peer CDN gegenseitig mit Daten versorgen können, ohne dass diese aus dem Internet heruntergeladen werden müssen.
Um ihre ästhetischen und strukturellen Ähnlichkeiten zum Fernsehprogramm aufzudecken, analysiert Christian Richter ausführlich mediale Inszenierungen von Netflix und YouTube. Die Schlagworte »Flow«, »Serialität«, »Liveness« und »Adressierung« dienen dabei als zentrale Orientierungshilfen. Antworten liefern etablierte Fernsehtheorien ebenso wie facettenreiche und triviale Beispiele. Diese reichen vom ZDF-Fernsehgarten und alten Horrorfilmen über den SuperBowl und einsame Bahnfahrten durch Norwegen bis zu BibisBeautyPalace und House of Cards. Am Ende schält sich ein Zustand von FERNSEHEN heraus, der als eine neue Version aufgefasst werden kann.
Lehrkräftefortbildungen werden in der Forschung als vielversprechende Möglichkeit angesehen, Lehrkräfte dabei zu unterstützen, den an sie gestellten Anforderungen gerecht zu werden (Darling-Hammond, Hyler & Gardner, 2017). Über verschiedene Studien hinweg konnte hierbei gezeigt werden, dass die Teilnahme einer Lehrkraft an Fortbildungen positiv mit der Entwicklung ihrer Schüler*innen zusammenhängt (Kalinowski, Egert, Gronostaj & Vock, 2020; Yoon, Duncan, Lee, Scarloss & Shapley, 2007). Während ein Teil der Forschung ihren Fokus auf die Wirksamkeit von Fortbildungsangeboten richtet, nehmen andere Untersuchungen stärker die Nutzung dieser Angebote in den Blick. Die vorliegende Arbeit knüpft an die bisherige Forschung zur Lehrkräftefortbildung an und versucht, Aspekte der Nutzung und des Angebots der Lehrkräftefortbildung in Deutschland im Rahmen des Comprehensive Lifelong Learning Participation Models stärker gemeinsam zu betrachten (Boeren, Nicaise & Baert, 2010). Hierbei handelt es sich um ein Mehrebenen-Modell zur Erklärung von Weiterbildungsverhalten, welches verschiedene Akteursgruppen (z.B. Fortbildungsteilnehmer*innen, Fortbildungsinstitute) auf der Nachfrage- und der Angebotsseite berücksichtigt und deren Interdependenz in den Blick nimmt. Vor diesem Hintergrund beschäftigt sich die vorliegende Arbeit in vier Teilstudien mit den Merkmalen der Fortbildungsteilnehmer*innen und des Fortbildungsangebots. Sie untersucht zudem die Prädiktoren für Fortbildungsbeteiligung von Lehrkräften auf der Nachfrage- und Angebotsseite. Studie 1 fokussiert zunächst die Nachfrageseite des Comprehensive Lifelong Learning Participation Models (Boeren et al., 2010) und betrachtet die in der Forschung wenig beachtete Gruppe der Nicht-Teilnehmer*innen. An Befunde der allgemeinen Weiterbildungsforschung anknüpfend, beschäftigt sich diese Teilstudie mit den Teilnahmebarrieren von Lehrkräften an Fortbildungen und untersucht, wie diese mit der Fortbildungsaktivität von Lehrkräften zusammenhängen. Die Beantwortung der Forschungsfragen basiert auf einer Sekundärdatenanalyse des IQB-Ländervergleichs 2012 (Pant et al., 2013), auf dessen Grundlage ein Gruppenvergleich von Teilnehmer*innen und Nicht-Teilnehmer*innen an Fortbildung sowie eine faktoranalytische Betrachtung der berichteten Teilnahmebarrieren durchgeführt wurde. Studie 2 greift die Frage auf, welche Lehrkräfte intensiv von Angeboten der Fortbildung Gebrauch machen. Ausgangspunkt der Arbeit ist die Beobachtung eines Matthäus-Effektes durch die allgemeine Weiterbildungsforschung. Demnach beteiligen sich insbesondere jene Personen stärker an beruflichen Lerngelegenheiten, die bereits vor der Maßnahme über günstige Ausgangsvoraussetzungen, etwa in Form eines höheren Kompetenzniveaus im Vergleich zu Personen, die nicht oder weniger an Angeboten der Fort- und Weiterbildung partizipieren, verfügen. In Anlehnung an diese Befunde diskutiert Teilstudie 2 verschiedene Aspekte der Qualität von Lehrkräften und geht anhand bivariater Zusammenhangsanalysen der Frage nach, welche Zusammenhänge zwischen der Voraussetzung der Lehrkraft und der Nutzung von Fortbildung bestehen. Dabei berücksichtigt die Studie das von Boeren et al. (2010) eingeführte Comprehensive Lifelong Learning Participation Model, indem sie die Befunde der Wirksamkeits- und Angebotsforschung aufgreift und differentielle Effekte in Abhängigkeit der Merkmale der Fortbildungen (fachlich vs. nicht-fachlich) in den Blick nimmt. Die durchgeführten Analysen beruhen auf einer Sekundärdatenanalyse des COACTIV-Forschungsprojekts (Kunter, Baumert & Blum, 2011). Auch in Studie 3 steht die Interaktion von Nachfrage- und Angebotsseite im Mittelpunkt. Während in Studie 2 jedoch konzeptionelle Merkmale der Fortbildung fokussiert wurden, liegt der Fokus in Studie 3 auf dem strukturellen Merkmal Zeit. Zeiten zum (beruflichen) Lernen werden hierbei zunächst auf Basis empirischer Befunde als Grundvoraussetzung für das Zustandekommen von Fortbildungsbeteiligung herausgearbeitet. Die Studie geht dann der Frage nach, welche zeitlichen Merkmale das Fortbildungsangebot für Lehrkräfte aufweist und wie diese Merkmale des Angebots im Zusammenhang mit der Nutzung durch Lehrkräfte stehen. Zur Beantwortung der Forschungsfragen werden eine Programmanalyse sowie polynomiale Regressionen durchgeführt. Die der Analyse zugrundeliegenden Daten beruhen hierbei auf den in der elektronischen Datenbank hinterlegten Fortbildungsangebotsdaten für das Land Brandenburg aus dem akademischen Jahr 2016/2017. Studie 4 fokussiert schließlich die Gruppe der Lehrerfortbildner*innen und somit die Angebotsseite des Comprehensive Lifelong Learning Participation Models (Boeren et al., 2010). In Anlehnung an theoretische Arbeiten zur professionellen Identität wird dabei der Frage nachgegangen, wie Lehrerfortbildner*innen ihre Aufgaben wahrnehmen und wie diese Wahrnehmung mit weiteren Aspekten ihrer professionellen Identität und der Gestaltung ihrer Fortbildungsveranstaltungen zusammenhängt. Hierzu wurden selbsterhobene Daten einer schriftlichen Befragung von Lehrerfortbildner*innen im Jahr 2019 zunächst faktoranalytisch betrachtet und anschließend mithilfe bivariater Zusammenhangsanalysen untersucht. Die zentralen Ergebnisse der vorliegenden Arbeit werden abschließend zusammengefasst diskutiert. Sie deuten insgesamt darauf hin, dass das derzeitige Fortbildungssystem in Deutschland nicht dazu geeignet erscheint, alle Lehrkräfte mit qualitativ hochwertigen Fortbildungen so zu erreichen, dass sie an ihren Schwächen arbeiten können. Die Befunde zeigen weiter, dass Fortbildner*innen eine mögliche Stellschraube für die Veränderung von Teilen des Fortbildungsangebots darstellen. Die Befunde bieten somit die Grundlage für zukünftige Forschungsarbeiten und mögliche Implikationen in der Fortbildungspraxis und Bildungspolitik.
Wege zur Gesangskarriere
(2020)
Seit Jahrzehnten stellen die molekularen Schalter ein wachsendes Forschungsgebiet dar. Im Rahmen dieser Dissertation stand die Verbesserung der thermischen Stabilität, der Auslesbarkeit und Schaltbarkeit dieser molekularen Schalter in komplexen Umgebungen mithilfe computergestützter Chemie im Vordergrund.
Im ersten Projekt wurde die Kinetik der thermischen E → Z-Isomerisierung und die damit verbundene thermische Stabilität eines Azobenzol-Derivats untersucht. Dafür wurde Dichtefunktionaltheorie (DFT) in Verbindung mit der Eyring-Theorie des Übergangszustandes (TST) angewendet. Das Azobenzol-Derivat diente als vereinfachtes Modell für das Schalten in einer komplexen Umgebung (hier in metallorganischen Gerüsten). Es wurden thermodynamische und kinetische Größen unter verschiedenen Einflüssen berechnet, wobei gute Übereinstimmungen mit dem Experiment gefunden wurden. Die hier verwendete Methode stellte einen geeigneten Ansatz dar, um diese Größen mit angemessener Genauigkeit vorherzusagen.
Im zweiten Projekt wurde die Auslesbarkeit der Schaltzustände in Form des nichtlinearen optischen (NLO) Kontrastes für die Molekülklasse der Fulgimide untersucht. Die dafür benötigten dynamischen Hyperpolarisierbarkeiten unter Berücksichtigung der Elektronenkorrelation wurden mittels einer etablierten Skalierungsmethode berechnet. Es wurden verschiedene Fulgimide analysiert, wobei viele experimentelle Befunde bestätigt werden konnten. Darüber hinaus legte die theoretische Vorhersage für ein weiteres System nahe, dass insbesondere die Erweiterung des π-Elektronensystems ein vielversprechender Ansatz zur Verbesserung von NLO-Kontrasten darstellt. Die Fulgimide verfügen somit über nützliche Eigenschaften, sodass diese in Zukunft als Bauelemente in photonischen und optoelektronischen Bereichen Anwendungen finden könnten.
Im dritten Projekt wurde die E → Z-Isomerisierung auf ein quantenmechanisch (QM) behandeltes Dimer mit molekularmechanischer (MM) Umgebung und zwei Fluorazobenzol-Monomeren durch Moleküldynamik simuliert. Dadurch wurde die Schaltbarkeit in komplexer Umgebung (hier selbstorgansierte Einzelschichten = SAMs) bzw. von Azobenzolderivaten analysiert. Mit dem QM/MM Modell wurden sowohl Van-der-Waals-Interaktionen mit der Umgebung als auch elektronische Kopplung (nur zwischen QM-Molekülen) berücksichtigt. Dabei wurden systematische Untersuchungen zur Packungsdichte durchgeführt. Es zeigte sich, dass bereits bei einem Molekülabstand von 4.5 Å die Quantenausbeute (prozentuale Anzahl erfolgreicher Schaltprozesse) des Monomers erreicht wird. Die größten Quantenausbeuten wurden für die beiden untersuchten Fluorazobenzole erzielt. Es wurden die Effekte des Molekülabstandes und der Einfluss von Fluorsubstituenten auf die Dynamik eingehend untersucht, sodass der Weg für darauf aufbauende Studien geebnet ist.
Algorithmen in der Justiz
(2020)
Unter welchen Bedingungen dürfen Gerichte in Deutschland digitale Anwendungen zur Entscheidungsfindung einsetzen? Das Werk zeigt die engen Grenzen und einen Lösungsweg hierfür auf. Neben rechtstheoretischen und durch die computerspezifische Arbeitsweise gesetzten Grenzen ist der durch das Grundgesetz und das Europarecht abgesteckte Rechtsrahmen zu beachten. Im Zentrum der Bearbeitung steht die Garantie der richterlichen Unabhängigkeit, die durch den Technikeinsatz nicht infrage gestellt werden darf. Zur Auflösung des daraus resultierenden Konflikts wird ein Zertifizierungsverfahren für determinierte Programme vorgeschlagen. Schließlich werden konkrete Anwendungsbeispiele beleuchtet.
Im Jahre 1960 behauptete Yamabe folgende Aussage bewiesen zu haben: Auf jeder kompakten Riemannschen Mannigfaltigkeit (M,g) der Dimension n ≥ 3 existiert eine zu g konform äquivalente Metrik mit konstanter Skalarkrümmung. Diese Aussage ist äquivalent zur Existenz einer Lösung einer bestimmten semilinearen elliptischen Differentialgleichung, der Yamabe-Gleichung. 1968 fand Trudinger einen Fehler in seinem Beweis und infolgedessen beschäftigten sich viele Mathematiker mit diesem nach Yamabe benannten Yamabe-Problem. In den 80er Jahren konnte durch die Arbeiten von Trudinger, Aubin und Schoen gezeigt werden, dass diese Aussage tatsächlich zutrifft. Dadurch ergeben sich viele Vorteile, z.B. kann beim Analysieren von konform invarianten partiellen Differentialgleichungen auf kompakten Riemannschen Mannigfaltigkeiten die Skalarkrümmung als konstant vorausgesetzt werden.
Es stellt sich nun die Frage, ob die entsprechende Aussage auch auf Lorentz-Mannigfaltigkeiten gilt. Das Lorentz'sche Yamabe Problem lautet somit: Existiert zu einer gegebenen räumlich kompakten global-hyperbolischen Lorentz-Mannigfaltigkeit (M,g) eine zu g konform äquivalente Metrik mit konstanter Skalarkrümmung? Das Ziel dieser Arbeit ist es, dieses Problem zu untersuchen.
Bei der sich aus dieser Fragestellung ergebenden Yamabe-Gleichung handelt es sich um eine semilineare Wellengleichung, deren Lösung eine positive glatte Funktion ist und aus der sich der konforme Faktor ergibt. Um die für die Behandlung des Yamabe-Problems benötigten Grundlagen so allgemein wie möglich zu halten, wird im ersten Teil dieser Arbeit die lokale Existenztheorie für beliebige semilineare Wellengleichungen für Schnitte auf Vektorbündeln im Rahmen eines Cauchy-Problems entwickelt. Hierzu wird der Umkehrsatz für Banachräume angewendet, um mithilfe von bereits existierenden Existenzergebnissen zu linearen Wellengleichungen, Existenzaussagen zu semilinearen Wellengleichungen machen zu können. Es wird bewiesen, dass, falls die Nichtlinearität bestimmte Bedingungen erfüllt, eine fast zeitglobale Lösung des Cauchy-Problems für kleine Anfangsdaten sowie eine zeitlokale Lösung für beliebige Anfangsdaten existiert.
Der zweite Teil der Arbeit befasst sich mit der Yamabe-Gleichung auf global-hyperbolischen Lorentz-Mannigfaltigkeiten. Zuerst wird gezeigt, dass die Nichtlinearität der Yamabe-Gleichung die geforderten Bedingungen aus dem ersten Teil erfüllt, so dass, falls die Skalarkrümmung der gegebenen Metrik nahe an einer Konstanten liegt, kleine Anfangsdaten existieren, so dass die Yamabe-Gleichung eine fast zeitglobale Lösung besitzt. Mithilfe von Energieabschätzungen wird anschließend für 4-dimensionale global-hyperbolische Lorentz-Mannigfaltigkeiten gezeigt, dass unter der Annahme, dass die konstante Skalarkrümmung der konform äquivalenten Metrik nichtpositiv ist, eine zeitglobale Lösung der Yamabe-Gleichung existiert, die allerdings nicht notwendigerweise positiv ist. Außerdem wird gezeigt, dass, falls die H2-Norm der Skalarkrümmung bezüglich der gegebenen Metrik auf einem kompakten Zeitintervall auf eine bestimmte Weise beschränkt ist, die Lösung positiv auf diesem Zeitintervall ist. Hierbei wird ebenfalls angenommen, dass die konstante Skalarkrümmung der konform äquivalenten Metrik nichtpositiv ist. Falls zusätzlich hierzu gilt, dass die Skalarkrümmung bezüglich der gegebenen Metrik negativ ist und die Metrik gewisse Bedingungen erfüllt, dann ist die Lösung für alle Zeiten in einem kompakten Zeitintervall positiv, auf dem der Gradient der Skalarkrümmung auf eine bestimmte Weise beschränkt ist. In beiden Fällen folgt unter den angeführten Bedingungen die Existenz einer zeitglobalen positiven Lösung, falls M = I x Σ für ein beschränktes offenes Intervall I ist. Zum Schluss wird für M = R x Σ ein Beispiel für die Nichtexistenz einer globalen positiven Lösung angeführt.
Cybergrooming, die Anbahnung des sexuellen Missbrauchs eines Kindes über Soziale Medien und Onlinespiele, gilt als eines der schwerwiegendsten digitalen Risiken für Kinder. Für viele Kinder gehört es dabei zur Normalität in einer digitalisierten Welt aufzuwachsen und ihre Zeit in Sozialen Medien und Onlinespielen zu verbringen. In diesen Programmen spielen und kommunizieren die Kinder ganz selbstverständlich auch mit unbekannten Erwachsenen und anderen Minderjährigen. Hieraus können für die Kinder eine Vielzahl von Risiken entstehen. Eines der vermutlich relevantesten ist dabei die Gefahr, dass das Kind Opfer eines Sexualdelikts wird. Wie effektiv sind aber gegenwärtig die gesellschaftlichen und vor allem kriminalpolitischen Maßnahmen, um Kinder vor solchen Risiken in einem globalisierten digitalen Raum zu schützen? Dieses Buch setzt sich daher grundlegend mit dem Phänomen des Cybergroomings und seiner gesellschaftlichen Bekämpfungsstrategien auseinander. Neben einer umfangreichen Darstellung der Phänomenologie, der Täter- und Opferstruktur sowie der Ursachen für normenabweichendes Verhalten im digitalen Raum aus Sicht der Cyberkriminologie, liegt ein Schwerpunkt der Arbeit auf der strafrechtlichen Einordnung von Cybergrooming in Deutschland. Im Zentrum dieser juristischen Betrachtung steht die aktuelle Auseinandersetzung über die Auswirkungen der Einführung einer Versuchsstrafbarkeit für § 176 Abs. 4 Nr. 3 StGB. Die vorliegende Publikation versteht sich als eine intradisziplinäre Arbeit, die Erkenntnisse aus den Bereichen der Rechtswissenschaft, der Cyberkriminologie und der Medienwissenschaften kombiniert, um einen möglichst ganzheitlichen Blick auf das Phänomen Cybergrooming zu gewinnen. Im Ergebnis werden kriminalpolitische Handlungsempfehlungen abgeleitet, die in der Gesamtheit die Keimzelle einer digitalen Generalprävention bilden könnten.
Das bayerisch-ligistische Kriegskommissariat kontrollierte das weitestgehend autonome Söldnerheer im Dreißigjährigen Krieg. Es gilt daher als ein beispielhaftes Forschungsobjekt zur fürstlichen Macht dieser Zeit. Während sich die Forschung bisher auf die normative Ebene beschränkte, unternimmt diese Arbeit durch die Auswertung von Feldakten und Privatkorrespondenzen sowie anhand der Methoden der Prosopographie und Netzwerkanalyse eine multiperspektivische Annäherung an das Thema. Die Verwicklungen verschiedener Kompetenzen und Funktionen des sozialen Netzwerks für die Amtsausführung des Kriegskommissariats werden zu Tage gefördert. Damit trägt die Arbeit zur Erfassung der Vielfältigkeit der Herrschaft in der Frühen Neuzeit bei.
Die vorgelegte Arbeit besteht aus drei Teilprojekten, der Realisierung eines Multiparametersensors (Temperatur, pH-Wert und Sauerstoffkonzentration), der Konzipierung und Untersuchung eines optischen Atemgassensors und Untersuchungen zur Anwendung des Konzeptes der Sauerstofflöschung in der Immuntechnologie. Zur Realisierung des Multiparametersensors wurden die einzelnen Sensorfarbstoffe, sofern notwendig, synthetisiert und anschließend einzeln unter Laborbedingungen charakterisiert. Im weiteren Verlauf wurde ein Versuchsaufbau konzipiert mit dem es möglich ist, alle verwendeten Sensorfarbstoffe mit einer Anregungsquelle anzuregen. Dabei erfolgte die Detektion der Parameter Temperatur und Sauerstoffkonzentration mittels Phasenmodulationsspektroskopie und die pH-Wert-bestimmung mittels stationärer Fluoreszenzspektroskopie. So konnte ein Multiparametersensor konzipiert werden, mit dem es möglich ist, die drei genannten Parameter simultan, in Echtzeit und ohne externe Temperaturmessung zu detektieren. Im Rahmen der Entwicklung eines optischen Atemgassensors konnte zunächst eine neue Sensorform entwickelt werden. Durch diese neue Sensorform, welche sich durch sehr kurze Ansprechzeiten auszeichnet, ist es möglich den Sauerstoffgehalt in der Exspirationsluft sehr detailreich zu erfassen. Durch freiwillige Selbstversuche mit dem Atemgassensor konnte eine Korrelation mit einer etablierten Untersuchungsmethode hergestellt werden. Während der Untersuchungen zur Anwendung des Konzeptes der Sauerstofflöschung in der Immuntechnologie konnte zunächst ein Modell entwickelt werden, welches die Wechselwirkung zwischen Antikörper und synthetisiertem Farbstoff, welcher als Antigen fungierte, beschreibt. Nachdem weiterhin eine Wechselwirkung zwischen Antikörper und Antigen in einfachen Medien, wie PBS-Pufferlösung, gezeigt werden konnte, gelang dies auch in komplexen Medien wie bovinem Serum, Kuhmilch oder Speichelflüssigkeit. So konnte ein System entwickelt werden, mit dem es möglich ist Antikörper-Antigen-Wechselwirkungen in komplexen biologischen Medien zu verfolgen.
Die Gesundheitswirtschaft in Deutschland steht vor zahlreichen Veränderungen in ihrem Umfeld. Dabei mangelt es der Krankenhauslandschaft an ärztlichem Personal. Es fehlt insbesondere an Arztstunden bei zugleich steigendem Bedarf an medizinischen Leistungen. Der demografische Wandel, Abwanderung ins Ausland (z. B. in die Schweiz) und Extrapolationen wie Feminisierung des Arztberufs und der Wertewandel respektive Generationenforschung begünstigen diese
Entwicklung. Zudem wird der Arbeitsplatz Krankenhaus zunehmend als unattraktiv von zukünftigen Arbeitnehmerkohorten angesehen. Nachwuchsärzte entscheiden sich bereits im Studium vermehrt gegen die kurative Medizin beziehungsweise gegen eine medizinisch-klinische Tätigkeit. Ein virulentes Beschaffungsproblem zeichnet sich ab, das es zu lösen gilt.
Das Forschungsziel ist die Entwicklung eines ganzheitlichen strategischen Lösungsansatzes mit marktorientierter Akzentuierung für den Arbeitgeber Krankenhaus. Dabei wird das Krankenhaus als wissens- und kompetenzintensive Dienstleistungsorganisation definiert. Employer Branding stellt den Bezugsrahmen eines marktorientierten Personalmanagements dar. Ein forschungstheoretischer Unterbau wird durch strategische Managementansätze integriert. Employer Branding schlägt die Brücke vom Market-based View zum Competence-based View und ist Markenmanagement im Kontext des strategischen Personalmanagements. In der vorliegenden Arbeit wird ein holistischer Bezugsrahmen vorgestellt, der die Wirkungszusammenhänge respektive Employer Branding darstellt. Das Herzstück ist die Employer Value Proposition, die auf der Markenidentität der Organisation basiert. Ziel des Employer Branding Ansatzes ist es, unter anderem eine präferenzerzeugende Wirkung im Prozess der Arbeitsplatzwahl sicherzustellen.
Die Zielrichtung und die Erkenntnis-Interessen erfordern einen breit angelegten Forschungsansatz, der qualitative und quantitative Methoden kombiniert. Ziel der leitfadengesteuerten Tiefeninterviews (exploratives Studiendesign) ist es, bestehende und noch zu entwickelnde Kompetenzstärken der Krankenhausorganisationen zu identifizieren. Bei der Stichprobe handelt es sich um ein „Typical Case Sampling“ (N=12). Defizitäre Befunde, welche Werte und Attraktivitätsfaktoren bei angehenden Ärzten ausgeprägt sind, werden bestätigt. In der Krankenhauslandschaft wird eine fragmentarische und reaktive Herangehensweise identifiziert, die die erfolgreiche Rekrutierung von qualifiziertem Krankenhauspersonal erschwert.
Durch die qualitative Marktforschung werden Anforderungen des Marktes – also zukünftiges, ärztliches Krankenhauspersonal – auf faktorenanalytischer Basis analysiert. Die Stichprobe (N=475) ist isomorph. Dabei wird der Prozess der Einstellungsbildung in das neobehavioristische Erklärungsmodell des Käuferverhaltens eingeordnet. Die Vereinbarkeit von Beruf, Karriere und Familie sowie die betriebliche Kinderbetreuung werden als Schlüsselkomponenten erkannt.
Wichtigste Arbeitswerte in Bezug auf einen attraktiven Arbeitgeber sind Verlässlichkeit, Verantwortung und Respekt. Diese Komponenten haben kommunikativen Nutzen und Differenzierungskraft. Schließlich bewerten Bewerber ein Krankenhaus positiver im Prozess der Arbeitsplatzwahl, je mehr die Werte des potentiellen Arbeitnehmers mit dem Werteprofil der Person übereinstimmen (Person-Organisation Fit).
Krankenhausorganisationen, die den Employer Branding Ansatz implementieren und als Chance zur Definition ihrer Stärken, ihrer Vorzüge und ihres Leistungsangebots als Arbeitgeber annehmen, rüsten sich für das verstärkte Werben um Jungmediziner. Schließlich setzt Employer Branding als marktorientierter Strategieansatz intern und extern Kräfte frei, die Differenzierungsvorteile gegenüber anderen Arbeitgebern bringen. Dabei hat Employer Branding positive Auswirkungen auf den Human Ressource-Bereich entlang der Wertschöpfungskette und mindert das gesamtwirtschaftliche Problem.
Der zentralasiatische Naturraum, wie er sich uns heute präsentiert, ist das Ergebnis eines Zusammenwirkens vieler verschiedener Faktoren über Jahrmillionen hinweg. Im aktuellen Kontext des Klimawandels zeigt sich jedoch, wie stark sich Stoffflüsse auch kurzfristig ändern und dabei das Gesicht der Landschaft verwandeln können. Die Gobi-Wüste in der Inneren Mongolei (China), als Teil der gleichnamigen Trockenregionen Nordwestchinas, ist aufgrund der Ausgestaltung ihrer landschaftsprägenden Elemente sowie ihrer Landschaftsdynamik, im Zusammenhang mit der Lage zum Tibet-Plateau, in den Fokus der klimageschichtlichen Grundlagenforschung gerückt. Als großes Langzeitarchiv unterschiedlichster fluvialer, lakustriner und äolischer Sedimente stellt sie eine bedeutende Lokalität zur Rekonstruktion von lokalen und regionalen Stoffflüssen dar.. Andererseits ist die Gobi-Wüste zugleich auch eine bedeutende Quelle für den überregionalen Staubtransport, da sie aufgrund der klimatischen Bedingungen insbesondere der Erosion durch Ausblasung preisgegeben wird. Vor diesem Hintergrund erfolgten zwischen 2011 und 2014, im Rahmen des BMBF-Verbundprogramms WTZ Zentralasien – Monsundynamik & Geoökosysteme (Förderkennzeichen 03G0814), mehrere deutsch-chinesische Expeditionen in das Ejina-Becken (Innere Mongolei) und das Qilian Shan-Vorland. Im Zuge dieser Expeditionen wurden für eine Bestimmung potenzieller Sedimentquellen erstmals zahlreiche Oberflächenproben aus dem gesamten Einzugsgebiet des Heihe (schwarzer Fluss) gesammelt. Zudem wurden mit zwei Bohrungen im inneren des Ejina-Beckens, ergänzende Sedimentbohrkerne zum bestehenden Bohrkern D100 (siehe Wünnemann (2005)) abgeteuft, um weit reichende, ergänzende Informationen zur Landschaftsgeschichte und zum überregionalen Sedimenttransfer zu erhalten. Gegenstand und Ziel der vorliegenden Doktorarbeit ist die sedimentologisch-mineralogische Charakterisierung des Untersuchungsgebietes in Bezug auf potenzielle Sedimentquellen und Stoffflüsse des Ejina-Beckens sowie die Rekonstruktion der Ablagerungsgeschichte eines dort erbohrten, 19m langen Sedimentbohrkerns (GN100). Schwerpunkt ist hierbei die Klärung der Sedimentherkunft innerhalb des Bohrkerns sowie die Ausweisung von Herkunftssignalen und möglichen Sedimentquellen bzw. Sedimenttransportpfaden. Die methodische Herangehensweise basiert auf einem Multi-Proxy-Ansatz zur Charakterisierung der klastischen Sedimentfazies anhand von Geländebeobachtungen, lithologisch-granulometrischen und mineralogisch-geochemischen Analysen sowie statistischen Verfahren. Für die mineralogischen Untersuchungen der Sedimente wurde eine neue, rasterelektronenmikroskopische Methode zur automatisierten Partikelanalyse genutzt und den traditionellen Methoden gegenübergestellt. Die synoptische Betrachtung der granulometrischen, geochemischen und mineralogischen Befunde der Oberflächensedimente ergibt für das Untersuchungsgebiet ein logisches Kaskadenmodell mit immer wiederkehrenden Prozessbereichen und ähnlichen Prozesssignalen. Die umfangreichen granulometrischen Analysen deuten dabei auf abnehmende Korngrößen mit zunehmender Entfernung vom Qilian Shan hin und ermöglichen die Identifizierung von vier texturellen Signalen: den fluvialen Sanden, den Dünensanden, den Stillwassersedimenten und Stäuben. Diese Ergebnisse können als Interpretationsgrundlage für die Korngrößenanalysen des Bohrkerns genutzt werden. Somit ist es möglich, die Ablagerungsgeschichte der Bohrkernsedimente zu rekonstruieren und in Verbindung mit eigenen und literaturbasierten Datierungen in einen Gesamtkontext einzuhängen. Für das Untersuchungsgebiet werden somit vier Ablagerungsphasen ausgewiesen, die bis in die Zeit des letzten glazialen Maximums (LGM) zurückreichen. Während dieser Ablagerungsphasen kam es im Zuge unterschiedlicher Aktivitäts- und Stabilitätsphasen zu einer kontinuierlichen Progradation und Überprägung des Schwemmfächers. Eine besonders aktive Phase kann zwischen 8 ka und 4 ka BP festgestellt werden, während der es aufgrund zunehmender fluvialer Aktivitäten zu einer deutlich verstärkten Schwemmfächerdynamik gekommen zu sein scheint. In den Abschnitten davor und danach waren es vor allem äolische Prozesse, die zu einer Überprägung des Schwemmfächers geführt haben. Hinsichtlich der mineralogischen Herkunftssignale gibt es eine große Variabilität. Dies spiegelt die enorme Heterogenität der Geologie des Untersuchungsgebietes wider, wodurch die räumlichen Signale nicht sehr stark ausgeprägt sind. Dennoch, können für das Einzugsgebiet drei größere Bereiche deklariert werden, die als Herkunftsgebiet in Frage kommen. Das östliche Qilian Shan Vorland zeichnet sich dabei durch deutlich höhere Chloritgehalte als primäre Quelle für die Sedimente im Ejina-Becken aus. Sie unterscheiden sich insbesondere durch stark divergierende Chloritgehalte in der Tonmineral- und Gesamtmineralfraktion, was das östliche Qilian Shan Vorland als primäre Quelle für die Sedimente im Ejina-Becken auszeichnet. Dies steht in Zusammenhang mit den Grünschiefern, Ophioliten und Serpentiniten in diesem Bereich. Geochemisch deutet vor allem das Cr/Rb-Verhältnis eine große Variabilität innerhalb des Einzugsgebietes an. Auch hier ist es das östliche Vorland, welches aufgrund seines hohen Anteils an mafischen Gesteinen reich an Chromiten und Spinellen ist und sich somit vom restlichen Untersuchungsgebiet abhebt. Die zeitliche aber auch die generelle Variabilität der Sedimentherkunft lässt sich in den Bohrkernsedimenten nicht so deutlich nachzeichnen. Die mineralogisch-sedimentologischen Eigenschaften der erbohrten klastischen Sedimente zeugen zwar von zwischenzeitlichen Änderungen bei der Sedimentherkunft, diese sind jedoch nicht so deutlich ausgeprägt, wie es die Quellsignale in den Oberflächensedimenten vermuten lassen. Ein Grund dafür scheint die starke Vermischung unterschiedlichster Sedimente während des Transportes zu sein. Die Kombination der Korngrößenergebnisse mit den Befunden der Gesamt- und Schwermineralogie deuten darauf hin, dass es zwischenzeitlich eine Phase mit überwiegend äolischen Prozessen gegeben hat, die mit einem Sedimenteintrag aus dem westlichen Bei Shan in Verbindung stehen. Neben der Zunahme ultrastabiler Schwerminerale wie Zirkon und Granat und der Abnahme opaker Schwerminerale, weisen vor allem die heutigen Verhältnisse darauf hin. Der Vergleich der traditionellen Schwermineralanalyse mit der Computer-Controlled-Scanning-Electron-Microscopy (kurz: CCSEM), die eine automatisierte Partikelauswertung der Proben ermöglicht, zeigt den deutlichen Vorteil der modernen Analysemethode. Neben einem zeitlichen Vorteil, den man durch die automatisierte Abarbeitung der vorbereiteten Proben erlangen kann, steht vor allem die deutlich größere statistische Signifikanz des Ergebnisses im Vordergrund. Zudem können mit dieser Methode auch chemische Varietäten einiger Schwerminerale bestimmt werden, die eine noch feinere Klassifizierung und sicherere Aussagen zu einer möglichen Sedimentherkunft ermöglichen. Damit ergeben sich außerdem verbesserte Aussagen zu Zusammensetzungen und Entstehungsprozessen der abgelagerten Sedimente. Die Studie verdeutlicht, dass die Sedimentherkunft innerhalb des Untersuchungsgebietes sowie die ablaufenden Prozesse zum Teil stark von lokalen Gegebenheiten abhängen. Die Heterogenität der Geologie und die Größe des Einzugsgebietes sowie die daraus resultierende Komplexität der Sedimentgenese, machen exakte Zuordnungen zu klar definierten Sedimentquellen sehr schwer. Dennoch zeigen die Ergebnisse, dass die Sedimentzufuhr in das Ejina-Becken in erster Linie durch fluviale klastische Sedimente des Heihe aus dem Qilian Shan erfolgt sein muss. Die Untersuchungsergebnisse zeigen jedoch ebenso die Notwendigkeit einer ergänzenden Bearbeitung angrenzender Untersuchungsgebiete, wie beispielsweise den Gobi-Altai im Norden oder den Beishan im Westen, sowie die Verdichtung der Oberflächenbeprobung zur feineren Auflösung von lokalen Sedimentquellen.
Die Aufgabe der Selbstregulierung der Presse wird in Deutschland vom Deutschen Presserat wahrgenommen. Dieser sieht sich seit seiner Gründung fortwährender Kritik ausgesetzt. Die Arbeit geht der Frage nach, ob der Deutsche Presserat mit seiner bisherigen Tätigkeit den Ansprüchen an eine erfolgreiche Selbstregulierung gerecht wird. Sodann werden elf Lösungsvorschläge auf ihre rechtliche Umsetzbarkeit und ihre Auswirkungen auf die Pressekontrolle in Deutschland untersucht. Zudem wird das britische Modell der Presseselbstkontrolle mit dem deutschen verglichen, um Unterschiede und Gemeinsamkeiten aufzuzeigen, sowie Anregungen und Verbesserungsvorschläge für die Zukunft zu erforschen. Durch ähnliche Strukturen am Anfang ihres Entstehens und das größtenteils parallele Bestehen von Presseräten in beiden Ländern eignet sich explizit das britische Modell für einen Vergleich mit dem Deutschen Presserat.
Crowdinvesting
(2020)
Finanzierung durch den Schwarm Crowdinvesting - auch bekannt als Schwarmfinanzierung - hat in den letzten Jahren deutlich an Relevanz gewonnen. Crowdinvesting bietet Startup- und Wachstumsunternehmen aber auch Entwicklern von Immobilienprojekten eine echte Alternative zum klassischen Bankdarlehen. Hierbei rufen die Unternehmen über das Internet zur Finanzierung auf und eine Vielzahl von Kleinanlegern und Business Angels können sich mit kleinen oder großen Beträgen an der Finanzierung beteiligen.
Das Werk beleuchtet dabei grundlegende Fragen wie:
- Ist Crowdinvesting dasselbe wie Crowdfunding? Gibt es noch weitere Formen der Schwarmfinanzierung?
- Welche Vorteile und Rechte erhalten die Anleger beim Crowdinvesting?
- Welche gesetzlichen Rahmenbedingungen gelten für Crowdinvesting-Finanzierungen?
- Gibt es Bestrebungen für einen EU-weit einheitlichen Rechtsrahmen?
- Wie sind Einkünfte aus einer Crowdinvesting-Finanzierung zu versteuern? Muss Umsatzsteuer abgeführt werden?
Klar strukturiert und verständlich formuliert
Das Werk bietet dem Leser eine umfassende Darstellung zum Begriff des Crowdinvesting und Abgrenzung von ähnlichen Schwarmfinanzierungen. Darüber hinaus werden die rechtlichen Beziehungen der verschiedenen Beteiligten beim Crowdinvesting zivilrechtlich eingeordnet. Anschließend wird der aktuelle aufsichtsrechtliche Rahmen des Crowdinvesting dargestellt und kritisch anhand ökonomischer Theorien (insb. Erkenntnisse der behavioral finance) hinterfragt sowie auf seine verfassungsrechtliche Zulässigkeit untersucht. Auch die aktuellen Entwicklungen eines europäischen Rechtsrahmens für Crowdinvesting werden diskutiert. Abschließend gibt das Werk Antworten auf ertrags- und umsatzsteuerliche Fragen.
Vorteile auf einen Blick
- umfassende Darstellung eines aktuellen und (volks-)wirtschaftlich relevanten Themas
- Nachschlagewerk für zivilrechtliche, aufsichtsrechtliche und steuerliche Fragestellungen beim Crowdinvesting
- auch ohne Vorkenntnisse gut verständlich
Zielgruppe
Für Rechtsanwälte, Unternehmen, Wissenschaftler, Betriebs- und Volkswirte sowie alle am Thema Schwarmfinanzierung Interessierte.
Die vorliegende Untersuchung analysierte den direkten Zusammenhang eines berufsbezogenen Angebots Sozialer Gruppenarbeit mit dem Ergebnis beruflicher Wiedereingliederung bei Rehabilitandinnen und Rehabilitanden in besonderen beruflichen Problemlagen. Sie wurde von der Deutschen Rentenversicherung Bund als Forschungsprojekt vom 01.01.2013 bis 31.12. 2015 gefördert und an der Professur für Rehabilitationswissenschaften der Universität Potsdam realisiert.
Die Forschungsfrage lautete: Kann eine intensive sozialarbeiterische Gruppenintervention im Rahmen der stationären medizinischen Rehabilitation soweit auf die Stärkung sozialer Kompetenzen und die Soziale Unterstützung von Rehabilitandinnen und Rehabilitanden einwirken, dass sich dadurch langfristige Verbesserungen hinsichtlich der beruflichen Wiedereingliederung im Vergleich zur konventionellen Behandlung ergeben?
Die Studie gliederte sich in eine qualitative und eine quantitative Erhebung mit einer zwischenliegenden Intervention. Eingeschlossen waren 352 Patientinnen und Patienten im Alter zwischen 18 und 65 Jahren mit kardiovaskulären Diagnosen, deren Krankheitsbilder häufig von komplexen Problemlagen begleitet sind, verbunden mit einer schlechten sozialmedizinischen Prognose.
Die Evaluation der Gruppenintervention erfolgte in einem clusterrandomisierten kontrollierten Studiendesign, um einen empirischen Nachweis darüber zu erbringen, inwieweit die Intervention gegenüber der regulären sozialarbeiterischen Behandlung höhere Effekte erzielen kann. Die Interventionsgruppen nahmen am Gruppenprogramm teil, die Kontrollgruppen erhielten die reguläre sozialarbeiterische Behandlung.
Im Ergebnis konnte mit dieser Stichprobe kein Nachweis zur Verbesserung der beruflichen Wiedereingliederung, der gesundheitsbezogenen Arbeitsfähigkeit, der Lebensqualität sowie der Sozialen Unterstützung durch die Teilnahme am sozialarbeiterischen Gruppenprogramm erbracht werden. Die Return-To-Work-Rate betrug 43,7 %, ein Viertel der Untersuchungsgruppe befand sich nach einem Jahr in Arbeitslosigkeit. Die durchgeführte Gruppenintervention ist dem konventionellen Setting Sozialer Arbeit als gleichwertig anzusehen.
Schlussfolgernd wurde auf eine sozialarbeiterische Unterstützung der beruflichen Wiedereingliederung über einen längeren Zeitraum nach einer kardiovaskulären Erkrankung verwiesen, insbesondere durch wohnortnahe Angebote zu einem späteren Zeitpunkt bei stabilerer Gesundheit. Aus den Erhebungen ließen sich mögliche Erfolge bei engerer Kooperation zwischen dem Fachbereich der Sozialen Arbeit und der Psychologie ableiten. Ebenfalls gab es Hinweise auf die einflussreiche Rolle der Angehörigen, die durch Einbindung in die Soziale Beratung unterstützend auf den Wiedereingliederungsprozess wirken könnten. Die Passgenauigkeit der untersuchten sozialarbeiterischen Gruppeninterventionen ist durch eine gezielte Soziale Diagnostik zu verbessern.
Um auch die unbeabsichtigten Folgen ihrer Politik zu ermitteln, unternehmen Regierungen umfassende Gesetzesfolgenabschätzungen. Immer häufiger lassen sie sich dabei von unabhängigen Expertengremien kontrollieren. Doch: Wie erzielen diese Gremien Einfluss? Und welche Rolle spielen sie als Politikberater für Bürokratieabbau und bessere Rechtsetzung? Das Buch eröffnet neue Einblicke in die Entwicklungshistorie und Handlungsrealität der drei erfahrensten Normenkontrollräte in Europa. Vor dem Hintergrund unterschiedlicher Verwaltungskulturen werden die Ratstypen „Wachhund“, „Torwächter“ und „Kritischer Freund“ herausgearbeitet. Die Ergebnisse schärfen die politische und wissenschaftliche Debatte um die Leistungsfähigkeit von Normenkontrollräten.
Obwohl die Herrschaft Lindow-Ruppin im Spätmittelalter eine zentrale Lage zwischen den großen Landesherrschaften im Osten des Reiches einnahm und sich ihre beiden Landesteile über eine weite Entfernung erstreckten, ist sie weitgehend in Vergessenheit geraten. Lediglich die Frage nach der Herrschaftsgründung der aus dem nordöstlichen Harzraum stammenden Arnsteiner im Land Ruppin gab Historikern Anlass zur Beschäftigung mit dem Thema. Eine differenzierte Erforschung blieb bisher hingegen aus.
Anhand teils neu entdeckter Quellen untersucht André Stellmacher verschiedene Schwerpunkte, wie die Heirats- und Erwerbspolitik, die Besitzverteilung innerhalb der Herrschaft und das Verhältnis der Grafen zu ihren Vasallen. Eine beinahe 1.000 Einträge umfassende Regestensammlung bildet dafür die Grundlage. Neu geschaffene Karten und der reich bebilderte anhängende Siegelkatalog belegen die Ergebnisse auf anschauliche Weise.
Die §§ 299a, 299b StGB sind das Ergebnis eines legitimen gesetzgeberischen Anliegens, die Umsetzung erfolgte indes defizitär.
Der Rechtsgüterschutz ist nicht konsistent, was zu dessen Weiterentwicklung zwingt.
Die unkritische Übernahme der Auslegungsergebnisse zu § 299 StGB – obwohl vom Gesetzgeber intendiert – ist darüber hinaus oftmals verfehlt. Die Arbeit hinterfragt diesen Ansatz und zeigt Lösungen auf.
Um existente Strafbarkeitslücken zu schließen ist es ferner unerlässlich eine verfassungskonforme „Pflichtverletzungsvariante“ einzuführen. Ferner böte eine Clearingstelle Rechtssicherheit, insbesondere mit der Möglichkeit zur Genehmigung von Austauschverhältnissen im Gesundheitswesen. Hierzu werden Vorschläge gemacht.
Philosophische Tugenden
(2020)
Worin besteht gutes Philosophieren? Und weshalb ist gerade John Stuart Mill ein außergewöhnlich guter Philosoph? Joachim Toenges-Hinn verbindet in diesem Band die metaphilosophische Suche danach, was gute Philosophie ausmacht, mit einer historischen Betrachtung des Philosophen John Stuart Mill. Dabei fungiert Mill zugleich als Urheber von und Verkörperung des Strebens nach zwei philosophischen Tugenden, die Toenges-Hinn aus Mills philosophischem Werk ableitet und anschließend systematisch verteidigt. Diese als „Bentham-Ideal“ und „Coleridge-Ideal“ bezeichneten Tugenden stehen dabei ebenso im Fokus seiner Untersuchung wie die Bedeutung von Lebensexperimenten für philosophische Biografien.
Sie senden den Wandel
(2020)
Altbekannt ist, welch wichtige Rolle Medien bei der Konsolidierung oder aber auch bei der Transformation einer Gesellschaft spielen. Was aber geschieht, wenn Medien von unten aus agieren und dies in großer Zahl geschieht, unter Einbindung vieler gesellschaftlicher Akteure sowie gegenüber einem umfassenden Publikum? In Argentinien hat sich eine faszinierende Radiolandschaft gebildet, die kollektiv, partizipativ und progressiv arbeitet: Die Community-Radios. Viviana Uriona nimmt uns mit auf eine ethnografische Reise durch die Geschichte dieser Radios, analysiert ihre Arbeitsweise und sucht nach den Gründen ihres Erfolges. Am Ende der Lektüre bleibt eine Frage nicht mehr offen: Könnte hierzulande in gleicher Weise gelingen, was dort geschah?
Unter Verschluss
(2020)
Sekundäre Pflanzenstoffe und ihre gesundheitsfördernden Eigenschaften sind in den letzten zwei Jahrzehnten vielfach ernährungsphysiologisch untersucht und spezifische positive Effekte im humanen Organismus zum Teil sehr genau beschrieben worden. Zu den Carotinoiden zählend ist der sekundäre Pflanzenstoff Lutein insbesondere in der Prävention von ophthalmologischen Erkrankungen in den Mittelpunkt der Forschung gerückt. Das ausschließlich von Pflanzen und einigen Algen synthetisierte Xanthophyll wird über die pflanzliche Nahrung insbesondere grünes Blattgemüse in den humanen Organismus aufgenommen. Dort akkumuliert es bevorzugt im Makulapigment der Retina des menschlichen Auges und ist bedeutend im Prozess der Aufrechterhaltung der Funktionsfähigkeit der Photorezeptorzellen. Im Laufe des Alterns kann die Abnahme der Dichte des Makulapigments und der Abbau von Lutein beobachtet werden. Die dadurch eintretende Destabilisierung der Photorezeptorzellen im Zusammenhang mit einer veränderten Stoffwechsellage im alternden Organismus kann zur Ausprägung der altersbedingten Makuladegeneration (AMD) führen. Die pathologische Symptomatik der Augenerkrankung reicht vom Verlust der Sehschärfe bis hin zum irreversiblen Erblinden. Da therapeutische Mittel ausschließlich ein Fortschreiten verhindern, bestehen hier Forschungsansätze präventive Maßnahmen zu finden. Die Supplementierung von luteinhaltigen Präparaten bietet dabei einen Ansatzpunkt. Auf dem Markt finden sich bereits Nahrungsergänzungsmittel (NEM) mit Lutein in verschiedenen Applikationen. Limitierend ist dabei die Stabilität und Bioverfügbarkeit von Lutein, welches teilweise kostenintensiv und mit unbekannter Reinheit zu erwerben ist. Aus diesem Grund wäre die Verwendung von Luteinestern als die pflanzliche Speicherform des Luteins im Rahmen eines NEMs vorteilhaft. Neben ihrer natürlichen, höheren Stabilität sind Luteinester nachhaltig und kostengünstig einsetzbar.
In dieser Arbeit wurden physikochemische und ernährungsphysiologisch relevante Aspekte in dem Produktentwicklungsprozess eines NEMs mit Luteinestern in einer kolloidalen Formulierung untersucht. Die bisher einzigartige Anwendung von Luteinestern in einem Mundspray sollte die Aufnahme des Wirkstoffes insbesondere für ältere Menschen erleichtern und verbessern. Unter Beachtung der Ergebnisse und der ernährungsphysiologischen Bewertung sollten u.a. Empfehlungen für die Rezepturzusammensetzungen einer Miniemulsion (Emulsion mit Partikelgrößen <1,0 µm) gegeben werden. Eine Einschätzung der Bioverfügbarkeit der Luteinester aus den entwickelten, kolloidalen Formulierungen konnte anhand von Studien zur Resorption- und Absorptionsverfügbarkeit in vitro ermöglicht werden.
In physikalischen Untersuchungen wurden zunächst Basisbestandteile für die Formulierungen präzisiert. In ersten wirkstofffreien Musteremulsionen konnten ausgewählte Öle als Trägerphase sowie Emulgatoren und Löslichkeitsvermittler (Peptisatoren) hinsichtlich ihrer Eignung zur Bereitstellung einer Miniemulsion physikalisch geprüft werden. Die beste Stabilität und optimale Eigenschaften einer Miniemulsion zeigten sich bei der Verwendung von MCT-Öl (engl. medium chain triglyceride) bzw. Rapsöl in der Trägerphase sowie des Emulgators Tween® 80 (Tween 80) allein oder in Kombination mit dem Molkenproteinhydrolysat Biozate® 1 (Biozate 1).
Aus den physikalischen Untersuchungen der Musteremulsionen gingen die Präemulsionen als Prototypen hervor. Diese enthielten den Wirkstoff Lutein in verschiedenen Formen. So wurden Präemulsionen mit Lutein, mit Luteinestern sowie mit Lutein und Luteinestern konzipiert, welche den Emulgator Tween 80 oder die Kombination mit Biozate 1 enthielten. Bei der Herstellung der Präemulsionen führte die Anwendung der Emulgiertechniken Ultraschall mit anschließender Hochdruckhomogenisation zu den gewünschten Miniemulsionen. Beide eingesetzten Emulgatoren boten optimale Stabilisierungseffekte. Anschließend erfolgte die physikochemische Charakterisierung der Wirkstoffe. Insbesondere Luteinester aus Oleoresin erwiesen sich hier als stabil gegenüber verschiedenen Lagerungsbedingungen. Ebenso konnte bei einer kurzzeitigen Behandlung der Wirkstoffe unter spezifischen mechanischen, thermischen, sauren und basischen Bedingungen eine Stabilität von Lutein und Luteinestern gezeigt werden. Die Zugabe von Biozate 1 bot dabei nur für Lutein einen zusätzlichen Schutz. Bei längerer physikochemischer Behandlung unterlagen die in den Miniemulsionen eingebrachten Wirkstoffe moderaten Abbauvorgängen. Markant war deren Sensitivität gegenüber dem basischen Milieu. Im Rahmen der Rezepturentwicklung des NEMs war hier die Empfehlung, eine Miniemulsion mit einem leicht saurem pH-Milieu zum Schutz des Wirkstoffes durch kontrollierte Zugabe weiterer Inhaltstoffe zu gestalten.
Im weiteren Entwicklungsprozess des NEMs wurden Fertigrezepturen mit dem Wirkstoff Luteinester aufgestellt. Die alleinige Anwendung des Emulgators Biozate 1 zeigte sich dabei als ungeeignet. Die weiterhin zur Verfügung stehenden Fertigrezepturen enthielten in der Öl-phase neben dem Wirkstoff das MCT-ÖL oder Rapsöl sowie a-Tocopherol zur Stabilisierung. Die Wasserphase bestand aus dem Emulgator Tween 80 oder einer Kombination aus Tween 80 und Biozate 1. Zusatzstoffe waren zudem als mikrobiologischer Schutz Ascorbinsäure und Kaliumsorbat sowie für sensorische Effekte Xylitol und Orangenaroma. Die Anordnung der Basisrezeptur und das angewendete Emulgierverfahren lieferten stabile Miniemulsionen. Weiterhin zeigten langfristige Lagerungsversuche mit den Fertigrezepturen bei 4°C, dass eine Aufrechterhaltung der geforderten Luteinestermenge im Produkt gewährleistet war. Analoge Untersuchungen an einem luteinhaltigen, marktgängigen Präparat bestätigten dagegen eine bereits bei kurzfristiger Lagerung auftretende Instabilität von Lutein.
Abschließend wurde durch Resorptions- und Absorptionsstudien in vitro mit den Präemulsionen und Fertigrezepturen die Bioverfügbarkeit von Luteinestern geprüft. Nach Behandlung in einem etablierten in vitro Verdaumodell konnte eine geringfügige Resorptionsverfügbarkeit der Luteinester definiert werden. Limitiert war eine Micellarisierung des Wirkstoffes aus den konzipierten Formulierungen zu beobachten. Eine enzymatische Spaltung der Luteinester zu freiem Lutein wurde nur begrenzt festgestellt. Spezifität und Aktivität von entsprechenden hydrolytischen Lipasen sind als äußerst gering gegenüber Luteinestern zu bewerten. In sich anschließenden Zellkulturversuchen mit der Zelllinie Caco-2 wurden keine zytotoxischen Effekte durch die relevanten Inhaltsstoffe in den Präemulsionen gezeigt. Dagegen konnten eine Sensibilität gegenüber den Fertigrezepturen beobachtet werden. Diese sollte im Zusammenhang mit Irritationen der Schleimhäute des Magen-Darm-Traktes bedacht werden. Eine weniger komplexe Rezeptur könnte die beobachteten Einschränkungen möglicherweise minimieren. Abschließende Absorptionsstudien zeigten, dass grundsätzlich eine geringfügige Aufnahme von vorrangig Lutein, aber auch Luteinmonoestern in den Enterocyten aus Miniemulsionen erfolgen kann. Dabei hatte weder Tween 80 noch Biozate 1 einen förderlichen Einfluss auf die Absorptionsrate von Lutein oder Luteinestern. Die Metabolisierung der Wirkstoffe durch vorherigen in vitro-Verdau steigerte die zelluläre Aufnahme von Wirkstoffen aus Formulierungen mit Lutein und Luteinestern gleichermaßen. Die beobachtete Aufnahme von Lutein und Luteinmonoestern in den Enterocyten scheint über passive Diffusion zu erfolgen, wobei auch der aktive Transport nicht ausgeschlossen werden kann. Dagegen können Luteindiester aufgrund ihrer Molekülgröße nicht über den Weg der Micellarisierung und einfachen Diffusion in die Enterocyten gelangen. Ihre Aufnahme in die Dünndarmepithelzellen bedarf einer vorherigen hydrolytischen Spaltung durch spezifische Lipasen. Dieser Schritt limitiert wiederum die effektive Aufnahme der Luteinester in die Zellen bzw. stellt eine Einschränkung in ihrer Bioverfügbarkeit im Vergleich zu freiem Lutein dar.
Zusammenfassend konnte für die physikochemisch stabilen Luteinester eine geringe Bioverfügbarkeit aus kolloidalen Formulierungen gezeigt werden. Dennoch ist die Verwendung als Wirkstoffquelle für den sekundären Pflanzenstoff Lutein in einem NEM zu empfehlen. Im Zusammenhang mit der Aufnahme von luteinreichen, pflanzlichen Lebensmitteln kann trotz der zu erwartenden geringen Bioverfügbarkeit der Luteinester aus dem NEM ein Beitrag zur Verbesserung des Luteinstatus erreicht werden. Entsprechende Publikationen zeigten eindeutige Korrelationen zwischen der Aufnahme von luteinesterhaltigen Präparaten und einem Anstieg der Luteinkonzentration im Serum bzw. der Makulapigmentdichte in vivo. Die geringfügig bessere Bioverfügbarkeit von freiem Lutein steht im kritischen Zusammenhang mit seiner Instabilität und Kostenintensität. Bilanzierend wurde im Rahmen dieser Arbeit das marktgängige Produkt Vita Culus® konzipiert. Im Ausblick sollten humane Interventionsstudien mit dem NEM die abschließende Bewertung der Bioverfügbarkeit von Luteinestern aus dem Präparat möglich machen.