Refine
Year of publication
- 2017 (514) (remove)
Document Type
- Article (237)
- Doctoral Thesis (117)
- Part of a Book (63)
- Monograph/Edited Volume (49)
- Part of Periodical (15)
- Postprint (12)
- Master's Thesis (8)
- Review (4)
- Conference Proceeding (3)
- Habilitation Thesis (2)
Language
- German (514) (remove)
Keywords
- Philosophie (15)
- philosophy (15)
- Bürgerkommune (12)
- Partizipation (12)
- Partizipationsprozesse (12)
- kommunale Demokratie (12)
- kommunale Entscheidungsprozesse (12)
- Genisa (10)
- Geniza (10)
- Jewish Studies (10)
Institute
- Department Erziehungswissenschaft (53)
- Institut für Romanistik (35)
- Historisches Institut (34)
- WeltTrends e.V. Potsdam (28)
- Wirtschaftswissenschaften (26)
- MenschenRechtsZentrum (24)
- Arbeitskreis Militär und Gesellschaft in der Frühen Neuzeit e. V. (21)
- Department Musik und Kunst (21)
- Department Psychologie (21)
- Öffentliches Recht (21)
Heutzutage ist es üblich, die Ehre als einen obsoleten Begriff zu betrachten, der nur einem archaischen Denkmodell zuzuordnen ist und keine handlungsprägende Größe in der Gegenwartsgesellschaft darstellt. Die Ehrenmorde, die heute noch in unterschiedlichen Teilen der Welt verübt werden, scheinen diese Behauptung zu bestätigen. In diesem Buch wird jedoch die These vertreten, dass nicht der Ehrbegriff, sondern seine Deutungen archaischer Natur und daher in Frage zu stellen sind. Die Ehre ist die Bezeichnung des sozialen Werts eines Menschen, den er infolge seiner achtenswerten Handlungen erlangt. Also kann sie kein Motiv für moralisch fragwürdige Praktiken bilden. Vor diesem Hintergrund werden die Formen und die Voraussetzungen der Ehre dargestellt, die sowohl in Bezug auf unsere Zeit anpassungsfähig als auch ethisch tragbar sind.
Die Elektrosprayionisation (ESI) ist eine der weitverbreitetsten Ionisationstechniken für flüssige Pro-ben in der Massen- und Ionenmobilitäts(IM)-Spektrometrie. Aufgrund ihrer schonenden Ionisierung wird ESI vorwiegend für empfindliche, komplexe Moleküle in der Biologie und Medizin eingesetzt. Überdies ist sie allerdings für ein sehr breites Spektrum an Substanzklassen anwendbar. Die IM-Spektrometrie wurde ursprünglich zur Detektion gasförmiger Proben entwickelt, die hauptsächlich durch radioaktive Quellen ionisiert werden. Sie ist die einzige analytische Methode, bei der Isomere in Echtzeit getrennt und über ihre charakteristische IM direkt identifiziert werden können. ESI wurde in den 90ger Jahren durch die Hill Gruppe in die IM-Spektrometrie eingeführt. Die Kombination wird bisher jedoch nur von wenigen Gruppen verwendet und hat deshalb noch ein hohes Entwick-lungspotential. Ein vielversprechendes Anwendungsfeld ist der Einsatz in der Hochleistungs-flüssigkeitschromatographie (HPLC) zur mehrdimensionalen Trennung. Heutzutage ist die HPLC die Standardmethode zur Trennung komplexer Proben in der Routineanalytik. HPLC-Trennungsgänge sind jedoch häufig langwierig und der Einsatz verschiedener Laufmittel, hoher Flussraten, von Puffern, sowie Laufmittelgradienten stellt hohe Anforderungen an die Detektoren. Die ESI-IM-Spektrometrie wurde in einigen Studien bereits als HPLC-Detektor eingesetzt, war dort bisher jedoch auf Flussratensplitting oder geringe Flussraten des Laufmittels beschränkt.
In dieser kumulativen Doktorarbeit konnte daher erstmals ein ESI IM-Spektrometer als HPLC-Detektor für den Flussratenbereich von 200-1500 μl/min entwickelt werden. Anhand von fünf Publi-kationen wurden (1) über eine umfassende Charakterisierung die Eignung des Spektrometers als HPLC-Detektor festgestellt, (2) ausgewählte komplexe Trenngänge präsentiert und (3) die Anwen-dung zum Reaktionsmonitoring und (4, 5) mögliche Weiterentwicklungen gezeigt.
Erfolgreich konnten mit dem selbst-entwickelten ESI IM-Spektrometer typische HPLC-Bedingungen wie Wassergehalte im Laufmittel von bis zu 90%, Pufferkonzentrationen von bis zu 10 mM, sowie Nachweisgrenzen von bis zu 50 nM erreicht werden. Weiterhin wurde anhand der komplexen Trennungsgänge (24 Pestizide/18 Aminosäuren) gezeigt, dass die HPLC und die IM-Spektrometrie eine hohe Orthogonalität besitzen. Eine effektive Peakkapazität von 240 wurde so realisiert. Auf der HPLC-Säule koeluierende Substanzen konnten über die Driftzeit getrennt und über ihre IM identifi-ziert werden, sodass die Gesamttrennzeiten erheblich minimiert werden konnten. Die Anwend-barkeit des ESI IM-Spektrometers zur Überwachung chemischer Synthesen wurde anhand einer dreistufigen Reaktion demonstriert. Es konnten die wichtigsten Edukte, Zwischenprodukte und Produkte aller Stufen identifiziert werden. Eine quantitative Auswertung war sowohl über eine kurze HPLC-Vortrennung als auch durch die Entwicklung eines eigenen Kalibrierverfahrens, welches die Ladungskonkurrenz bei ESI berücksichtigt, ohne HPLC möglich. Im zweiten Teil der Arbeit werden zwei Weiterentwicklungen des Spektrometers präsentiert. Eine Möglichkeit ist die Reduzierung des Drucks in den intermediären Bereich (300 - 1000 mbar) mit dem Ziel der Verringerung der benötigten Spannungen. Mithilfe von Streulichtbildern und Strom-Spannungs-Kurven wurden für geringe Drücke eine verminderte Freisetzung der Analyt-Ionen aus den Tropfen festgestellt. Die Verluste konnten jedoch über höhere elektrische Feldstärken ausgeglichen werden, sodass gleiche Nachweisgrenzen bei 500 mbar und bei 1 bar erreicht wurden. Die zweite Weiterentwicklung ist ein neuartiges Ionentors mit Pulsschaltung, welches eine Verdopplung der Auflösung auf bis zu R > 100 bei gleicher Sensitivität ermöglichte. Eine denkbare Anwendung im Bereich der Peptidanalytik wurde mit beachtlichen Auflösungen der Peptide von R = 90 gezeigt.
Die langfristigen Auswirkungen von Frühgeburtlichkeit auf kognitive Entwicklung und Schulerfolg
(2017)
In einer prospektiven Längsschnittstudie wurde der Zusammenhang zwischen früher Responsivität der Mutter und kognitiver Entwicklung ihrer früh- bzw. reifgeborenen Kinder untersucht. Im Alter von drei Monaten wurde dafür die Mutter-Kind-Interaktion mittels Verhaltensbeobachtung erfasst. Bei n=351 der teilnehmenden Kinder (101 frühgeboren) wurde die allgemeine Intelligenz (IQ) im Alter von 11 Jahren und bei n=313 (85 frühgeboren) zusätzlich der höchste erreichte Schulabschluss bis 25 Jahren erhoben. Frühgeborene wiesen mit 11 Jahren einen signifikant niedrigeren IQ als Reifgeborene auf, nachdem für mögliche konfundierende Faktoren kontrolliert worden war. Nur bei Früh-, nicht aber bei Reifgeborenen zeigte sich ein signifikanter positiver Zusammenhang zwischen mütterlicher Responsivität und IQ. Für die Wahrscheinlichkeit einen höheren Schulabschluss (mind. Fachabitur) zu erreichen, fand sich weder ein signifikanter Effekt von Frühgeburtlichkeit noch von mütterlicher Responsivität.
In einer prospektiven Längsschnittstudie wurden Auswirkungen früher psychosozialer Risiken bis ins junge Erwachsenenalter untersucht und dabei die Rolle von affektiver und behavioraler Dysregulation im Kindesalter als vermittelndem Faktor überprüft. Drei Monate nach der Geburt wurde das Vorliegen von 11 psychosozialen Belastungsfaktoren erfasst. Im Alter von 8 – 15 Jahren wurde dreimal das Child Behavior Checklist-Dysregulationsprofil (CBCL-DP) erhoben. Mit 25 Jahren wurde ein Strukturiertes Klinisches Interview durchgeführt und 309 der Teilnehmer füllten den Young Adult Self-Report aus. Frühe psychosoziale Risiken gingen mit einem erhöhten Risiko für das Vorliegen eines Substanzmissbrauchs im jungen Erwachsenenalter sowie mit erhöhtem externalisierendem und internalisierendem Problemverhalten einher. Der Zusammenhang zwischen frühen psychosozialen Risiken und späterem externalisierendem bzw. internalisierendem Problemverhalten wurde durch das CBCL-DP vermittelt.
Die langfristigen Auswirkungen von Frühgeburtlichkeit auf kognitive Entwicklung und Schulerfolg
(2017)
In einer prospektiven Längsschnittstudie wurde der Zusammenhang zwischen früher Responsivität der Mutter und kognitiver Entwicklung ihrer früh- bzw. reifgeborenen Kinder untersucht. Im Alter von drei Monaten wurde dafür die Mutter-Kind-Interaktion mittels Verhaltensbeobachtung erfasst. Bei n=351 der teilnehmenden Kinder (101 frühgeboren) wurde die allgemeine Intelligenz (IQ) im Alter von 11 Jahren und bei n=313 (85 frühgeboren) zusätzlich der höchste erreichte Schulabschluss bis 25 Jahren erhoben. Frühgeborene wiesen mit 11 Jahren einen signifikant niedrigeren IQ als Reifgeborene auf, nachdem für mögliche konfundierende Faktoren kontrolliert worden war. Nur bei Früh-, nicht aber bei Reifgeborenen zeigte sich ein signifikanter positiver Zusammenhang zwischen mütterlicher Responsivität und IQ. Für die Wahrscheinlichkeit einen höheren Schulabschluss (mind. Fachabitur) zu erreichen, fand sich weder ein signifikanter Effekt von Frühgeburtlichkeit noch von mütterlicher Responsivität.
In einer prospektiven Längsschnittstudie wurden Auswirkungen früher psychosozialer Risiken bis ins junge Erwachsenenalter untersucht und dabei die Rolle von affektiver und behavioraler Dysregulation im Kindesalter als vermittelndem Faktor überprüft. Drei Monate nach der Geburt wurde das Vorliegen von 11 psychosozialen Belastungsfaktoren erfasst. Im Alter von 8 – 15 Jahren wurde dreimal das Child Behavior Checklist-Dysregulationsprofil (CBCL-DP) erhoben. Mit 25 Jahren wurde ein Strukturiertes Klinisches Interview durchgeführt und 309 der Teilnehmer füllten den Young Adult Self-Report aus. Frühe psychosoziale Risiken gingen mit einem erhöhten Risiko für das Vorliegen eines Substanzmissbrauchs im jungen Erwachsenenalter sowie mit erhöhtem externalisierendem und internalisierendem Problemverhalten einher. Der Zusammenhang zwischen frühen psychosozialen Risiken und späterem externalisierendem bzw. internalisierendem Problemverhalten wurde durch das CBCL-DP vermittelt.
Das Thema der lateinamerikanischen Migration wird aktuell durch die Äußerungen und Pläne des neuen US-Präsidenten Trump verstärkt wahrgenommen. Dabei ist die lateinamerikanische Migration eine Massenerscheinung, die länger andauert und eine größere Dimensionen aufweist als diejenige nach Europa. Sie kann daher für die Migrationspolitik der EU interessante Schlussfolgerungen bereithalten. Raina Zimmering untersucht aus dieser vergleichenden Perspektive die Ursachen für Migration und Flucht sowie die Migrationspolitiken der Ziel- und Ausgangsländer und deren Folgen.
Bolschewismus von rechts
(2017)
Bewaffnete Intellektuelle
(2017)
Auf der Suche nach der geheimen Herrschaftslehre der Nazis begibt sich Michael Zantke in eine tiefe und umfassende Auseinandersetzung mit den geistigen Wurzeln des Nationalsozialismus. Er beleuchtet die Diskussionen in Deutschland um Machiavelli und überprüft die Texte auf ihren Bezug zur Gegenwart des Nationalsozialismus. Dabei gelingt es ihm, die politische Rolle der Intellektuellen im „Dritten Reich“ und die Unterschiede zwischen Nationalsozialismus, Faschismus und Konservativer Revolution herauszuarbeiten. Diese Nuancen sind nicht nur historisch bedeutungsvoll, sie sind auch für die heutige Diskussion über Rechtsnationalismus, Rechtsradikalismus und die Neue Rechte von Nutzen.
5-Jahres-Verlauf der LRS
(2017)
Fragestellung: Untersucht wird der Verlauf von Kindern mit Lese-Rechtschreibstörungen (LRS) über gut 5 Jahre unter Berücksichtigung des Einflusses des Geschlechts der Betroffenen. Außerdem werden Auswirkungen der LRS auf das spätere Schriftsprachniveau und den Schulerfolg überprüft. Methodik: Eingangs wurden 995 Schüler zwischen 6 und 16 Jahren untersucht. Ein Teil dieser Kinder ist nach 43 sowie 63 Monaten nachuntersucht worden. Eine LRS wurde diagnostiziert, wenn für das Lesen bzw. Rechtschreiben das doppelte Diskrepanzkriterium von 1.5 Standardabweichungen zur nonverbalen Intelligenz und dem Mittelwert der Klassenstufe erfüllt war und gleichzeitig keine Minderbegabung vorlag. Ergebnisse: Die LRS weist über einen Zeitraum von 63 Monaten eine hohe Störungspersistenz von knapp 70 % auf. Der 5-Jahres-Verlauf der mittleren Lese- und Rechtschreibleistungen wurde nicht vom Geschlecht beeinflusst. Trotz durchschnittlicher Intelligenz blieben die LRS-Schüler in der Schriftsprache mindestens eine Standardabweichung hinter durchschnittlich und etwa 0.5 Standardabweichungseinheiten hinter unterdurchschnittlich intelligenten Kindern zurück. Der Schulerfolg der LRS-Schüler glich dem unterdurchschnittlich intelligenter Kinder und fiel deutlich schlechter aus als bei durchschnittlich intelligenten Kontrollkindern. Schlussfolgerungen: Eine LRS stellt ein erhebliches Entwicklungsrisiko dar, was frühzeitige Diagnostik- und Therapiemaßnahmen erfordert. Dafür sind reliable und im Hinblick auf die resultierenden Prävalenzraten sinnvolle, allgemein anerkannte Diagnosekriterien essenziell.
Zum Hundertsten nichts Neues
(2017)
Teachers' use of evaluation data to improve instruction and its relationship to student achievement
(2017)
In Deutschland stehen Lehrkräften mit Ergebnissen aus Vergleichsarbeiten, zentralen Abschlussprüfungen und internen Evaluationen verschiedene Informationen zur Verfügung. Diese Daten können von ihnen dazu verwendet werden, den eigenen Unterricht zu reflektieren und weiterzuentwickeln. Die Studie geht auf Basis des IQB-Ländervergleichs 2012 den Fragen nach, ob und welche Daten von Lehrkräften zur Unterrichtsentwicklung herangezogen werden und ob datenbasierte Unterrichtsentwicklung mit Schülerleistung zusammenhängt. Die Betrachtung mehrerer Evaluationsverfahren ermöglicht eine kontrastierende Analyse und die Untersuchung einer gemeinsamen Verwendung mehrerer Informationsquellen. Die überwiegende Mehrheit der befragten Lehrkräfte berichtet, Evaluationsergebnisse als Ausgangspunkt zur Unterrichtsentwicklung zu verwenden. Allerdings zeigt sich Heterogenität zwischen einzelnen Unterrichtsentwicklungsaktivitäten und Lehrkräften. Zur Initiierung einzelner Entwicklungsaktivitäten werden auch mehrere Datenquellen simultan herangezogen. Ein direkter signifikanter Zusammenhang zwischen datenbasierter Unterrichtsentwicklung und Schülerleistung kann nicht festgestellt werden. (DIPF/Orig.).
Die zerstörungsfreien Prüfungen von Bauwerken mit Hilfe von Ultraschallmessverfahren haben in den letzten Jahren an Bedeutung gewonnen. Durch Ultraschallmessungen können die Geometrien von Bauteilen bestimmt sowie von außen nicht sichtbare Fehler wie Delaminationen und Kiesnester erkannt werden.
Mit neuartigen, in das Betonbauteil eingebetteten Ultraschallprüfköpfen sollen nun Bauwerke dauerhaft auf Veränderungen überprüft werden. Dazu werden Ultraschallsignale direkt im Inneren eines Bauteils erzeugt, was die Möglichkeiten der herkömmlichen Methoden der Bauwerksüberwachung wesentlich erweitert. Ein Ultraschallverfahren könnte mit eingebetteten Prüfköpfen ein Betonbauteil kontinuierlich integral überwachen und damit auch stetig fortschreitende Gefügeänderungen, wie beispielsweise Mikrorisse, registrieren.
Sicherheitsrelevante Bauteile, die nach dem Einbau für Messungen unzugänglich oder mittels Ultraschall, beispielsweise durch zusätzliche Beschichtungen der Oberfläche, nicht prüfbar sind, lassen sich mit eingebetteten Prüfköpfen überwachen. An bereits vorhandenen Bauwerken können die Ultraschallprüfköpfe mithilfe von Bohrlöchern und speziellem Verpressmörtel auch nachträglich in das Bauteil integriert werden. Für Fertigbauteile bieten sich eingebettete Prüfköpfe zur Herstellungskontrolle sowie zur Überwachung der Baudurchführung als Werkzeug der Qualitätssicherung an. Auch die schnelle Schadensanalyse eines Bauwerks nach Naturkatastrophen, wie beispielsweise einem Erdbeben oder einer Flut, ist denkbar.
Durch die gute Ankopplung ermöglichen diese neuartigen Prüfköpfe den Einsatz von empfindlichen Auswertungsmethoden, wie die Kreuzkorrelation, die Coda-Wellen-Interferometrie oder die Amplitudenauswertung, für die Signalanalyse. Bei regelmäßigen Messungen können somit sich anbahnende Schäden eines Bauwerks frühzeitig erkannt werden.
Da die Schädigung eines Bauwerks keine direkt messbare Größe darstellt, erfordert eine eindeutige Schadenserkennung in der Regel die Messung mehrerer physikalischer Größen die geeignet verknüpft werden. Physikalische Größen können sein: Ultraschalllaufzeit, Amplitude des Ultraschallsignals und Umgebungstemperatur. Dazu müssen Korrelationen zwischen dem Zustand des Bauwerks, den Umgebungsbedingungen und den Parametern des gemessenen Ultraschallsignals untersucht werden.
In dieser Arbeit werden die neuartigen Prüfköpfe vorgestellt. Es wird beschrieben, dass sie sich, sowohl in bereits errichtete Betonbauwerke als auch in der Konstruktion befindliche, einbauen lassen. Experimentell wird gezeigt, dass die Prüfköpfe in mehreren Ebenen eingebettet sein können da ihre Abstrahlcharakteristik im Beton nahezu ungerichtet ist. Die Mittenfrequenz von rund 62 kHz ermöglicht Abstände, je nach Betonart und SRV, von mindestens 3 m zwischen Prüfköpfen die als Sender und Empfänger arbeiten. Die Empfindlichkeit der eingebetteten Prüfköpfe gegenüber Veränderungen im Beton wird an Hand von zwei Laborexperimenten gezeigt, einem Drei-Punkt-Biegeversuch und einem Versuch zur Erzeugung von Frost-Tau-Wechsel Schäden. Die Ergebnisse werden mit anderen zerstörungsfreien Prüfverfahren verglichen. Es zeigt sich, dass die Prüfköpfe durch die Anwendung empfindlicher Auswertemethoden, auftretende Risse im Beton detektieren, bevor diese eine Gefahr für das Bauwerk darstellen. Abschließend werden Beispiele von Installation der neuartigen Ultraschallprüfköpfe in realen Bauteilen, zwei Brücken und einem Fundament, gezeigt und basierend auf dort gewonnenen ersten Erfahrungen ein Konzept für die Umsetzung einer Langzeitüberwachung aufgestellt.
Durch Art. 20 Abs. 1 des Grundgesetzes wird die Bundesrepublik Deutschland als demokratischer und sozialer Bundesstaat insbesondere dem Föderalismus verpflichtet. Er ist neben der Demokratie eine der Säulen unseres Staatswesens. Im Bewusstsein dieser Grundentscheidung unserer Verfassung fällt mit Art. 115f Abs. 1 Nr. 2 GG eine Vorschrift auf, die hiervon im Verteidigungsfall eine weitreichende Ausnahme zu ermöglichen scheint. Die Bundesregierung soll dann unter bestimmten Voraussetzungen außer der Bundesverwaltung auch den Landesregierungen und Landesbehörden Weisungen erteilen können. Es stellt sich in Anbetracht eines solchen Ausnahmerechts die Frage, wie sich dieses Weisungsrecht der Bundesregierung in unser Rechtssystem einfügt.
Der Autor nähert sich dieser Frage zunächst über die geschichtlichen Hintergründe, die zur Einfügung der Vorschrift geführt haben. Er geht detailliert auf die Voraussetzungen dieses Weisungsrechts der Bundesregierung ein und stellt es in seinen systematischen Zusammenhang. Neben einer Darstellung des Weisungsbegriffs als Möglichkeit der Einflussnahme auf die Bundesverwaltung und die Länder, werden auch die damit umschriebenen Weisungsadressaten näher untersucht. Auch den Fragen, welchen Gegenstand Weisungen nach dieser Vorschrift haben können, wie sie zu erlassen sind und welche Wirkungen sich aus ihnen ergeben, wird in der Untersuchung detailreich nachgegangen. Daneben behandelt der Autor die sich daraus ergebenden Anschlussfragen, welcher Rechtsschutz gegen derartige Weisungen besteht, wer damit verbundene Aufgaben zu finanzieren hat und wer für eventuelle Schäden zu haften hat. Das Werk schließt mit einer Erörterung, ob es sich bei dieser Vorschrift um eine verfassungswidrige Verfassungsnorm handelt, und einem Blick auf internationale Vorschriften, die Einfluss auf das Weisungsrecht nehmen könnten.
Dieser Beitrag beschäftigt sich mit der Frage, welche Relevanz arbeitsstatis-tische und -rechtliche Kategorisierungen im Zeitraum von 1880 bis 1992 für den Wandel der Deu-tungsmodelle des Geschlechts haben. Aus vergleichstheoretischer stellt die Durchsetzung desmodernen Konzepts der Erwerbsarbeit um 1900 im nationalen Kontext und dessen Veränderung aufglobaler Ebene ein spezifisches Ordnungsverfahren dar, das im Mittelpunkt dieses Aufsatzes steht.Auf der Grundlage von zwei Mikrostudien zur Klassifizierung und Reklassifizierung der „Mithel-fenden Familienangehörigen“ und des „Nachtarbeitsverbots“ wird zum einen die Globalisierung derErwerbsarbeit als Beobachtungsschema, zum anderen der Wandel des Deutungsmodells derGeschlechterdifferenz im Zuge transnationaler Vergleichsverfahren erforscht. In dem Beitrag wirddie Auffassung vertreten, dass der Vergleich einen Globalisierungsmechanismus in der Weltgesell-schaft darstellt.
Bei der Autorin Judith Hermann handelt es sich um eine sehr resonanzträchtige Autorin, der in der Vergangenheit eine phänomenale Aufmerksamkeit zuteil wurde und die es schaffte, sich erfolgreich auf dem Marktplatz Literatur zu positionieren und zur Bestsellerautorin zu avancieren.
Die vorliegende Studie verfolgt das Ziel, der Marke Judith Hermann auf die Spur zu kommen und die höchst unterschiedlichen Facetten der Erfolgsgeschichte zu rekonstruieren.
Juliane Witzke analysiert dazu detailliert die peri- und epitextuellen Praktiken der Jahre 1998 bis 2014 und bezieht sich dabei auf die Paratexte der ersten vier Werke der Autorin. Ergänzt werden diese Begleittexte durch eine Analyse der Bild- und Tondokumente sowie der Buchpreisverleihungen. Die grundlegende Frage lautet: Wie ist der Wandel der Inszenierungspraktiken gestaltet? Des Weiteren gibt die Arbeit – anhand von 100 Büchern der Gegenwart – Aufschluss über Strategien der Lektürelenkung der letzten 16 Jahre.
Der Arbeitskreis Militär und Gesellschaft in der Frühen Neuzeit e. V. wurde im Frühjahr 1995 gegründet. Er hat es sich zur Aufgabe gemacht, die Erforschung des Militärs im Rahmen der frühneuzeitlichen Geschichte zu befördern und zugleich das Bewusstsein der Frühneuzeit-HistorikerInnen für die Bedeutung des Militärs in all seinen Funktionen zu wecken. Das Militär steht somit als soziale Gruppe selbst im Mittelpunkt der Aktivitäten des Arbeitskreises, wird aber auch in seinen Wirkungen und Repräsentationen thematisiert. Ziel ist es, die Rolle des Militärs als Teil der frühneuzeitlichen Gesellschaft umfassend herauszuarbeiten und zu würdigen. Insofern versteht der AMG seine Arbeit nicht nur als Beitrag zur Militärgeschichte, sondern vor allem als Beitrag zur Geschichte der Frühen Neuzeit insgesamt. Der Arbeitskreis bietet ein Diskussions- und Informationsforum durch die Organisation von Tagungen, die Herausgabe der Schriftenreihe ‚Herrschaft und soziale Systeme in der Frühen Neuzeit‘, die Zeitschrift ‚Militär und Gesellschaft in der Frühen Neuzeit‘ und die Mailingliste mil-fnz.
Einleitung
(2017)
Arbeit vor Rente
(2017)
Schon vor der Staatsgründung legte die SED die Grundlagen für ein neues System der sozialen Sicherung und wandelte den traditionellen Wohlfahrtsstaat in einen "workfarestate" um. Carolin Wiethoff richtet den Blick auf die Auswirkungen dieser Politik auf die Menschen, die aufgrund einer Erwerbsminderung nicht mehr oder nur noch eingeschränkt arbeiten konnten. Ihre Studie untersucht über einen Zeitraum von 40 Jahren hinweg die soziale Sicherung bei Invalidität und sozialpolitische Initiativen zur beruflichen Rehabilitation. Die beiden Bereiche waren eng miteinander verbunden, weil es den politisch Verantwortlichen in der DDR stets darum ging, möglichst viele Bürger in den Arbeitsprozess zu integrieren und eine dauerhafte Invalidisierung zu vermeiden. Im Mittelpunkt der Untersuchung steht neben dem stellenweise konfliktreichen Zusammenspiel der einzelnen Akteure im Partei-und Staatsapparat die betriebliche Praxis, denn in der DDR war Sozialpolitik besonders stark auf die Betriebe zentriert. Anhand des Eisenhüttenkombinates Ost, einem Schwerpunktbetrieb der DDR, werden die Organisation des betrieblichen Gesundheits- und Sozialwesens und Schwierigkeiten bei der Umsetzung staatlicher Vorgaben deutlich.
„Könn’Se berlinern?“
(2017)
Reform um jeden Preis
(2017)
Franz Ferdinand Julius Meyen (1804–1840) veröffentlichte auf sehr vielen Gebieten der Biologie wichtige Arbeiten, vor allem in Botanik und Zoologie. Mit Unterstützung Alexander von Humboldts gelang es ihm, auf dem Forschungsschiff „Prinzess Louise“ anzuheuern und als Schiffsarzt an einer mehrjährigen Weltreise teilzunehmen. Humboldt, der einige Regionen ebenfalls besucht und erforscht hatte, unterstützte seinen jungen Kollegen bei der Vorbereitung seiner Reise. Meyen veröffentlichte seine Reiseergebnisse bereits kurz nach seiner Rückkehr, gefördert von Christian Gottfried Nees von Esenbeck (1776–1858), sowohl als zweiteiligen historischen Reisebericht als auch in sieben Einzelabhandlungen. Einige Ergebnisse, die er, schwerkrank, nicht selbst verwerten konnte, übergab er noch bei Lebzeiten zur Bearbeitung an Spezialisten, andere wurden posthum von Mitgliedern der Leopoldina publiziert. Meyen brachte u. a. eine umfangreiche Sammlung an Vogelpräparaten mit, zu denen auch das Erstbeschreibungsexemplar des von ihm so genannten Spheniscus humboldti (Trivialname: Humboldt-Pinguin) gehört.
Editorial
(2017)
Editorial
(2017)
Vorwort
(2017)
Kurz vor ihrem sechzigsten Geburtstag ist die europäische Union mit inneren und äußeren Herausforderungen konfrontiert und befindet sich in einer tiefen Krise. Am 1. März 2017 legte Kommissionspräsident Juncker das „Weißbuch über die Zukunft der Europäischen Union“ vor, in dem er verschiedene Szenarien darlegt und zur Diskussion über die anste-henden Entscheidungen einlädt. Diese Papier versteht sich als ein solcher Diskussionsbei-trag.
German-Polish border region
(2017)
Gegenstand der Dissertation ist die Präsentation von Kleidermode in ihr gewidmeten Sonderausstellungen, die in zunehmender Zahl seit den 1990er Jahren in musealen und musemsähnlichen Kontexten veranstaltet werden. Es geht darum, wie Modekörper und vestimentäre Artefakte in diesen Ausstellungen gezeigt werden und welche ästhetischen Erfahrungen sich für die RezipientInnen aus der jeweiligen Konstellation von vestimentärem Objekt und Inszenierungsmittel ergeben können. Das Augenmerk liegt auf der Spannung zwischen dem visuellen Imperativ musealer Zeigepraktiken und den multisensorischen Qualitäten der Kleidermode, v. a. jener hautsinnlichen, die sich aus dem unmittelbaren Kontakt zwischen Körper und Kleid ergeben.
Die zentrale These ist, dass sich das Hautsinnliche der Kleidermode trotz des Berührungsverbots in vielen Ausstellungsinszenierungen zeigen kann. D. h., dass – entgegen häufig wiederholter Behauptungen – ‚der Körper‘, das Tragen und die Bewegung nicht per se oder komplett aus den Kleidern gewichen sind, werden diese musealisiert und ausgestellt. Es findet eine Verschiebung des Körperlichen und Hautsinnlichen, wie das Anfassen, Tragen und Bewegen, in visuelle Darstellungsformen statt. Hautsinnliche Qualitäten der vestimentären Exponate können, auch in Abhängigkeit von den jeweils verwendeten Präsentationsmitteln, von den BesucherInnen in unterschiedlichen Abstufungen sehend oder buchstäblich gespürt werden.
An konkreten Beispielen wird zum einen das Verhältnis von ausgestelltem Kleid und Präsentationsmittel(n) in den Displays untersucht. Dabei stehen folgende Mittel im Fokus, mit deren Hilfe die vestimentären Exponate zur Schau gestellt werden: Vitrinen, Podeste, Ersatzkörper wie Mannequins, optische Hilfsmittel wie Lupen, Bildmedien oder (bewegte) Installationen. Zum anderen wird analysiert, welche Wirkungen die Arrangements jeweils erzielen oder verhindern können, und zwar in Hinblick auf mögliche ästhetische Erfahrungen, die taktilen, haptischen und kinästhetischen Qualitäten der Exponate als BesucherIn sehend oder buchstäblich zu fühlen oder zu spüren. Ob als Identifikation, Projektion, Haptic Vision – es handelt sich um ästhetische Erfahrungen, die sich aus den modischen Kompetenzen der BetrachterInnen speisen und bei denen sich Visuelles und Hautsinnliches oft überlagern.
In der Untersuchung wird eine vernachlässigte, wenn nicht gar unerwünschte Rezeptionsweise diskutiert, die von den AkteurInnen der spezifischen Debatte bspw. als konsumptives Sehen abgewertet wird. Die von mir vorgeschlagene, stärker differenzierende Perspektive ist zugleich eine Kritik an dem bisherigen Diskurs und seinem eng gefassten, teilweise elitären Verständnis von Museum, Bildung und Wissen, mit dem sich AkteurInnen und Institutionen abgrenzen. Der Spezialdiskurs über musealisierte und exponierte Kleidermode steht zudem exemplarisch für die Diskussion, was das Museum, verstanden als Institution, sein kann und soll(te) und ob (und wenn ja, wie) es sich überhaupt noch von anderen Orten und Räumen klar abgrenzen lässt.
‚Ma‘oz tsur jeshu‘ati‘
(2017)
Die Hebung stiller Lasten ist eine Problematik, die in den letzten Jahren in Rechtsprechung und Literatur kontrovers diskutiert wurde und aufgrund Grund befürchteter Steuerausfälle in Milliardenhöhe zu den Neuregelungen in § 4f und § 5 Abs. 7 EStG geführt hat.
Der Autor nimmt diese Neuregelungen zum Anlass, die steuerbilanziellen Grundlagen herauszuarbeiten, die alte Rechtslage zu analysieren und die neue Rechtslage im Lichte dieser Erkenntnisse zu bewerten.
Im Zusammenhang mit der Darstellung der steuerbilanziellen Grundlagen geht der Autor auf die verfassungsrechtliche Rechtfertigung stiller Lasten ein und setzt sich mit der Rechtsprechung des Bundesverfassungsgerichts auseinander.
Darauf folgt eine Bewertung der Rechtsprechung des Bundesfinanzhofs, der die Realisation der stillen Lasten mit dem Realisationsprinzip und dem Prinzip der Erfolgsneutralität von Anschaffungsvorgängen begründet hat. Daraufhin untersucht der Autor, inwieweit diese Grundsätze auf die Neuregelung übertragen werden können.
Unter hybriden Finanzinstrumenten werden ganz allgemein Mischformen zwischen Eigen- und Fremdkapital verstanden. Aufgrund ihrer flexiblen Ausgestaltung stellen hybride Finanzinstrumente eine in vielfacher Hinsicht vorteilhafte Alternative zu klassischen Eigen- und Fremdkapitalinstrumenten dar. Bei der konkreten Ausgestaltung der Finanzinstrumente in der Praxis gilt es insbesondere zu berücksichtigen, wie sich diese beim Emittenten und beim Inhaber handels- und steuerbilanziell abbilden lassen. Auf Ebene des Emittenten stellt sich die Frage, ob das zugeführte Kapital als Eigen- oder Fremdkapital zu bilanzieren ist. Auf Ebene des Inhabers stellt sich die Frage, ob strukturierte hybride Finanzinstrumente einheitlich oder getrennt in ihre einzelnen Komponenten zu bilanzieren sind. Dabei gilt es zu beachten, dass sowohl die Frage der Abgrenzung zwischen Eigen- und Fremdkapital als auch die Frage der Abgrenzung der Beurteilungseinheit zum Teil wesentliche Rechtsfolgedivergenzen nach sich ziehen können. Es ist daher ein wesentliches Anliegen dieser Untersuchung sowohl für das Handels- als auch für das Steuerbilanzrecht klare und eindeutige Abgrenzungskriterien zu formulieren. Die Studie richtet sich einerseits an Wissenschaftler, die eine fundierte und kritische Auseinandersetzung mit der Thematik erwarten und andererseits an Praktiker, die auf der Suche nach konkreten Lösungen und Gestaltungsmöglichkeiten im Zusammenhang mit hybriden Finanzinstrumenten sind.
Hauptziel Adipositas ist eine der Hauptindikationen in der Kinder- und Jugend-Rehabilitation. Für ältere Jugendliche und junge Erwachsene fehlen altersspezifische Therapieangebote fast vollständig. Ziel war es die Wünsche bezüglich der Inhalte und Methoden einer „perfekten Therapie“ im Rahmen eines Rehabilitationsaufenthalts zu untersuchen.
Methode Im Rahmen der YOUTH-Studie wurden 147 adipöse Jugendliche und junge Erwachsene beiderlei Geschlechts (zwischen 15 und 21 Jahren) mithilfe eines standardisierten Fragebogens befragt.
Ergebnis Insgesamt zeigten sich relativ wenige alters- und geschlechtsspezifische Unterschiede. Interdisziplinär geleitete, koedukative Gruppen mit Elterneinbindung wurden gewünscht. Wichtige Themen waren gesunde Ernährung sowie psychosoziale Aspekte. Auch der Prävention von Rückfällen wurde eine hohe Relevanz zugeschrieben.
Schlussfolgerung Psychosoziale Aspekte und die Vorbereitung auf mögliche Rückfallsituationen sollten integraler Bestandteil der Therapie sein.
The paper presents the Polish study Ty-wy-pan. Kartka z dziejów
próżności ludzkiej (‘You (singular)–you (plural)–Lord. An overview on the history of the people’s vanity’, 1916) by Alexander Brückner from a linguistic-pragmatical as well as ideological point of view. In his pioneer study on politeness, the German-Polish slavist Brückner (1856–1939) critically reflects on the current system of Polish addresses and titles, especially in relating to the soon-to-be
refoundation of the Second Polish Republic (1918). The paper analyzes how his linguistic description and his ideas for reformation of the Polish addressative system are pragmatically justified and how they are ideologically motivated.
Furthermore, the paper reconstructs the status of Brückner’s concept of politeness in the context of current studies on Polish pragmatics.
The article presents first results of a pilot study on the syntactic changes in Polish as a language contact in Germany. On the base of the experimental data tests the study examines the syntactic changes in Polish of two diaspora-generations: the so called forgetters and the incomplete learners. The article focuses on the questions: how the situation of languages in contact influences the syntactic changes in the heritage language (Polish) and which status have those syntactic transferences. Other linguistic and sociolinguistic factors, capable to cause the language change in the situation of language contact, are also discussed in the article.
Die vorliegende Dissertation thematisiert den Unterschied zwischen Einstellungen, die auf der persönlichen Ebene im Rahmen demoskopischer Interviews erfragt und zu einem „Meinungsbild“ aggregiert werden und der öffentlichen Meinung, dem wahrgenommenen Meinungsklima zu einer Thematik. Die Daten der langjährigen Bevölkerungsbefragung des Zentrums für Militärgeschichte und Sozialwissenschaften der Bundeswehr (ZMSBw) weisen, hinsichtlich der persönlichen Einstellung der Bundesbürger zu den Streitkräften, seit vielen Jahren beständig darauf hin, dass die Mehrheit der Bürgerinnen und Bürger der Bundeswehr positiv gegenübersteht. Gleichzeitig existiert in Teilen der Bevölkerung die Meinungsklima-wahrnehmung, dass die Bundeswehr auf gesamtgesellschaftlicher Ebene eher kritisch gesehen wird. Der im Rahmen dieser Arbeit erstmalig entwickelte medienzentrierte Untersuchungsansatz des Phänomens, welches als Ausprägung pluralistischer Ignoranz theoretisch hergeleitet wurde, fokussiert, neben dem Einfluss eines doppelten Meinungsklimas, auf die Wirkung medienspezifischer Wahrnehmungsphänomene (Hostile-Media-Phänomen und Third-Person-Wahrnehmung), um die beobachtete Diskrepanz zwischen persönlicher Einstellung und Meinungsklimawahrnehmung zum Thema Ansehen der Bundeswehr zu erklären.
Im Rahmen einer quantitativen Bevölkerungsbefragung wurden Indikatoren entwickelt, um die aufgestellten Hypothesen einer empirischen Überprüfung zu unterziehen. Die deskriptiven Analysen zur Richtung und Ausprägung der Diskrepanzwahrnehmung ergaben, dass sich die Bürgerinnen und Bürger eher in der Weise irren, dass sie das Meinungsklima zum Thema Ansehen der Bundeswehr negativer einschätzen als das Ansehen, welches sie den Streitkräften persönlich entgegenbringen (negative Diskrepanz-wahrnehmung). Außerdem zeigte sich, dass die Diskrepanzwahrnehmung zurückging, wenn dem Untersuchungsthema ein emotionales Potenzial zugesprochen wurde. In einem solchen Fall tendieren die Probanden dazu, die eigene Meinung dicht an der antizipierten Mehrheitsmeinung zu positionieren, um sich keinem Rechtfertigungsdruck oder schlimmstenfalls sozialer Isolation auszusetzen.
Die Ergebnisse der Analysen der vier zentralen erklärenden Variablen zeigten auf, dass sich alle formulierten Hypothesen zur Richtung der Diskrepanzwahrnehmung bestätigten. Eine vermehrte Mediennutzung, eine negative Wahrnehmung der generellen bundeswehrbezogenen Medienberichterstattung, eine persönlich positive Einstellung zur Bundeswehr und die Wahrnehmung, dass die Medien auf Dritte stärker wirken als auf die eigene Person trugen jeweils zu einem Anstieg der negativen Diskrepanzwahrnehmung zum Thema Ansehen der Bundeswehr bei. Personen, die diese Merkmale aufwiesen, schätzten das Meinungsklima zum Thema Ansehen der Bundeswehr negativer ein als das Ansehen, welches sie den Streitkräften persönlich entgegenbrachten. Die Analyse der Stärke der jeweiligen Effekte verdeutlichte jedoch, dass die verwendeten Erklärungsansätze jeweils nur einen kleinen oder mittleren Beitrag zur Erklärung der Diskrepanzwahrnehmung leisten konnten.
Dieses Ergebnis kann dadurch begründet werden, dass sich das Untersuchungsthema, neben der Ermangelung einer kontinuierlichen Medienberichterstattung und eines breiten öffentlichen Diskurses zum Thema Ansehen der Bundeswehr sowie fehlender persönlicher Bezüge zu den Streitkräften, in der Analyse insbesondere als zu wenig konfliktträchtig erwies. Ob die Bundeswehr gesellschaftliches Ansehen erfährt, besitzt für den Großteil der Bevölkerung nur eine geringe persönliche Relevanz. Aus diesen Gründen scheint dieses Thema nicht dazu geeignet zu sein, um die in dieser Dissertation als Erklärungsfaktoren herangezogenen medienspezifischen Wahrnehmungsphänomene auszubilden. Dieses Ergebnis impliziert, dass die Diskrepanz zwischen persönlicher Einstellung und Meinungs-klimawahrnehmung zum Thema Ansehen der Bundeswehr von einer Reihe weiterer Faktoren beeinflusst wird, die es im Rahmen zukünftiger Forschungsarbeiten aufzuspüren und zu untersuchen gilt.
Humboldt hat auf seiner Russlandreise 1829 eine Anzahl von Büchern und Schriften in mongolischer, kalmükischer, armenischer, chinesischer, tibetischer und mandschurischer Sprache als Geschenk erhalten. Darüber hinaus hat er drei persische Handschriften käuflich erworben. Das umfangreichste Stück ist der chinesische Roman Geschichte der Drei Reiche. Humboldt hatte den Altphilologen und Kenner des Armenischen und Chinesischen, Carl Friedrich Neumann, gebeten, diese Titel zu katalogisieren. Als die Liste im Druck erschien (während Neumann sich auf einer Chinareise befand), führten die Monita zu einer Gelehrtenfehde. Danach gerieten die Bücher, eine bunte Mischung, bald in Vergessenheit. Vorliegender Artikel gibt eine Liste auf Grund des heutigen Befundes in der Staatsbibliothek zu Berlin, für die der Sammler die Bücher von Anfang an bestimmt hatte, wie mehrere Beischriften belegen.
Das Ziel der Arbeit ist die Entwicklung eines heuristischen Bezugsrahmens zur Erklärung der Komplexität im Kontext von Industrie 4.0 und der demografischen Entwicklung aus strukturationstheoretischer Sicht. Dabei sind in Bezug auf die zukünftig zu erwartenden kognitiven Anforderungen an die Beschäftigten die Fragen essentiell, vor welchen Herausforderungen Unternehmen bezüglich der Einstellung und dem Verhalten sowie dem Erfahrungswissen der Beschäftigten stehen und welche Lösungsansätze sich im Umgang mit den Herausforderungen in der Praxis bisher als hilfreich erweisen.
In Kapitel 1 erfolgt zunächst die Beschreibung der Ausgangslage. Es werden die Begriffe Industrie 4.0 und demografische Entwicklung inhaltlich diskutiert und in einen theoretischen Zusammenhang gebracht.
In Kapitel 2 erfolgt die theoretische Fundierung der Arbeit. Dabei wird eine strukturationstheoretische Sicht auf Unternehmen als soziotechnische Systeme eingenommen. Durch diese „nicht deterministische“ Sichtweise wird ein prozessualer Blick auf den Wandlungsprozess in Unternehmen geschaffen, der es möglich macht, die Beschäftigten als aktiv handelnde Akteure im Sinne von „organisieren“ zur Erklärung möglicher Zusammenhänge zwischen Industrie 4.0 und der demografischen Entwicklung mit einzubeziehen. Der soziotechnische Systemansatz und die Strukturationstheorie bilden in diesem Sinne den „Kern“ des zu entwickelnden heuristischen Bezugsrahmens.
Die inhaltliche Gestaltung des theoriebasierten heuristischen Bezugsrahmens erfolgt in Kapitel 3 und Kapitel 4.
Kapitel 3 beschreibt ausgewählte Aspekte zukünftiger Anforderungen an die Arbeit, die durch eine systematische Aufbereitung des derzeitigen Forschungsstandes zu Industrie 4.0 ermittelt wurden. Sie bilden die „Gestaltungsgrenzen“, innerhalb derer sich je nach betrieblicher Situation unterschiedliche neue oder geänderte Anforderungen an die Beschäftigten bei der Gestaltung von Industrie 4.0 ableiten lassen.
In Kapitel 4 werden ausgewählte Aspekte menschlichen Handelns am Beispiel älterer Beschäftigter in Form zweier Schwerpunkte beschrieben.
Der erste Schwerpunkt betrifft mögliche Einflussfaktoren auf die Einstellung und das Verhalten älterer Beschäftigter im Wandlungsprozess aufgrund eines vorherrschenden Altersbildes im Unternehmen. Grundlage hierzu bildete die Stigmatisierungstheorie als interaktionistischer Ansatz der Sozialtheorie.
Mit dem zweiten Schwerpunkt, den ausgewählten handlungstheoretischen Aspekten der Alternsforschung aus der Entwicklungspsychologie, wird eine Lebensspannenperspektive eingenommen. Inhaltlich werden die komplexitätsinduzierten Faktoren, die sich aus handlungstheoretischer Perspektive mit der Adaptation von älteren Beschäftigten an veränderte äußere und persönliche Lebensbedingungen beschäftigen, systematisiert.
Anschließend wird auf Grundlage der bisherigen theoretischen Vorüberlegungen ein erster theoriebasierter Bezugsrahmen abgeleitet.
Kapitel 5 und Kapitel 6 beschreiben den empirischen Teil, die Durchführung teilstrukturierter Interviews, der Arbeit. Ziel der empirischen Untersuchung war es, neben der theoretischen Fundierung den theoriebasierten heuristischen Bezugsrahmen um Praxiserfahrungen zu konkretisieren und gegebenenfalls zu ergänzen. Hierzu wurde auf Grundlage des theoriebasierten heuristischen Bezugsrahmens mittels teilstrukturierter Interviews das Erfahrungswissen von 23 Experten in persönlichen Gesprächen abgefragt.
Nachdem in Kapitel 5 die Vorgehensweise der empirischen Untersuchung beschrieben wird, erfolgt in Kapitel 6 die Beschreibung der Ergebnisse aus der qualitativen Befragung. Hierzu werden aus den persönlichen Gesprächen zentrale Einflussfaktoren bei der Gestaltung und Umsetzung von Industrie 4.0 im Kontext mit der demografischen Entwicklung analysiert und in die übergeordneten Kategorien Handlungskompetenzen, Einstellung/ Verhalten sowie Erfahrungswissen geclustert.
Anschließend wird der theoriebasierte heuristische Bezugsrahmen durch die übergeordneten Kategorien und Faktoren aus den Expertengesprächen konkretisiert und ergänzt.
In Kapitel 7 werden auf Grundlage des heuristischen Bezugsrahmens sowie der Empfehlungen aus den Experteninterviews beispielhaft Implikationen für die Praxis abgeleitet. Es werden Interventionsmöglichkeiten zur Unterstützung einer positiven Veränderungsbereitschaft und einem positiven Veränderungsverhalten für den Strukturwandel aufgezeigt. Hierzu gehören die Anpassung des Führungsverhaltens im Wandlungsprozess, der Umgang mit der Paradoxie von Stabilität und Flexibilität, der Umgang mit Altersstereotypen in Unternehmen, die Unterstützung von Strategien zu Selektion, Optimierung und Kompensation sowie Maßnahmen zur Ausrichtung von Aktivitäten an die Potenzialrisiken der Beschäftigten.
Eine Zusammenfassung, ein Resümee und ein Ausblick erfolgen abschließend in Kapitel 8.
Personalmanagement
(2017)
Cybermobbing
(2017)
"Wortabruf im Handumdrehen"?
(2017)
Dyskalkulie
(2017)
Hintergrund
Ausgeprägte Schwierigkeiten beim Erwerb der grundlegenden arithmetischen Fertigkeiten bei ansonsten durchschnittlichen Schulleistungen werden als Rechenstörung oder Dyskalkulie bezeichnet. Davon betroffen sind etwa 5 % der Grundschülerpopulation. Die Ursachen und die Symptome sind ebenso vielgestaltig wie die Methoden der differenziellen Förderung und Therapie.
Material und Methode
Selektive Literaturrecherche zur Rechenstörung aus verschiedenen mit dem Gegenstand befassten wissenschaftlichen Disziplinen.
Ergebnisse
Der Erwerb von Fähigkeiten zur Zahlenverarbeitung und zum Rechnen wird als ein erfahrungsabhängiger neuroplastischer Reifungsprozess verstanden, der zu einem komplexen, spezialisierten neuronalen Netzwerk führt und verschiedene kognitive Zahlenrepräsentationen hervorbringt. Die Entwicklung dieser domänenspezifischen Fähigkeiten ist abhängig von der Entwicklung domänenübergreifender Fähigkeiten, wie Aufmerksamkeit, Arbeitsgedächtnis, Sprache und visuell-räumlichen Fähigkeiten. Störungen dieser Reifungsprozesse können in verschiedenen Entwicklungsstadien unterschiedliche Komponenten der Entwicklung dieses komplexen kognitiven Systems betreffen und sind daher im klinischen Erscheinungsbild vielgestaltig. Sonderpädagogische, lerntherapeutische und ggf. medizinische Maßnahmen benötigen eine differenzielle Diagnostik und Indikationsstellung. Moderne computerbasierte Lernsoftware kann sowohl die schulische Didaktik als auch lerntherapeutische Vorgehensweisen unterstützen.
Schlussfolgerung
Frühzeitiges Erkennen sowie differenzielle und individualisierte Förderung können die Gefahr des Auftretens sekundärer emotionaler Störungen mindern. Die Diagnostik und die Behandlung der Rechenstörung sollten evidenzbasiert und leitlinienorientiert erfolgen sowie der Komplexität und Vielgestaltigkeit der Symptombildungen Rechnung tragen.
Entgegen der dominierenden Rezeption ist Jean Améry, Überlebender der Konzentrationslager Auschwitz und Bergen-Belsen, ein marxistischer Denker. In Kontrastierung mit ausgewählten Werken der zeitgenössischen Intellektuellen Jürgen Habermas, Theodor W. Adorno und Jean-Paul Sartre zeichnet Sabine Volk die Konturen nach, die Amérys marxistisch-humanistisch geprägten Begriff des Engagements deutlich hervortreten lassen und eine Revision des bisherigen Améry-Bildes nahelegen. Das Buch zeigt, dass Wissenschaft nach Auschwitz auf mindestens zwei Ebenen produktiv sein muss, wenn sie den Ansprüchen an eine Kritische Denkpraxis gerecht werden will: als von der individuellen Erfahrung ausgehender, dialogisch konzipierter, ideologiekritischer Entwurf einer Gesellschaftstheorie, der ständiger Aktualisierung bedarf, und als Versuch, durch die Kritik der Vergangenheit hindurch eine Utopie zu realisieren, die den fühlenden, reflektierenden und gestaltenden Menschen auf die Bühne der Weltgeschichte ruft.
Am Abend des 29. Mai 2016 wurde der Ort Braunsbach im Landkreis Schwäbisch-Hall (Baden-Württemberg) von einer Sturzflut getroffen, bei der mehrere Häuser stark beschädigt oder zerstört wurden. Die Sturzflut war eine der Unwetterfolgen, die im Frühsommer 2016 vom Tiefdruckgebiet Elvira ausgelöst wurden. Der vorliegende Bericht ist der zweite Teil einer Doppelveröffentlichung, welche die Ergebnisse zur Untersuchung des Sturzflutereignisses im Rahmen des DFG-Graduiertenkollegs “Naturgefahren und Risiken in einer sich verändernden Welt” (NatRiskChange, GRK 2043/1) der Universität Potsdam präsentiert. Während Teil 1 die meteorologischen und hydrologischen Ereignisse analysiert, fokussiert Teil 2 auf die geomorphologischen Prozesse und die verursachten Gebäudeschäden. Dazu wurden Ursprung und Ausmaß des während des Sturzflutereignisses mobilisierten und in den Ort getragenen Materials untersucht. Des Weiteren wurden zu 96 betroffenen Gebäuden Daten zum Schadensgrad sowie Prozess- und Gebäudecharakteristika aufgenommen und ausgewertet. Die Untersuchungen zeigen, dass bei der Betrachtung von Hochwassergefährdung die Berücksichtigung von Sturzfluten und ihrer speziellen Charakteristika, wie hoher Feststofftransport und sprunghaftes Verhalten insbesondere in bebautem Gelände, wesentlich ist, um effektive Schutzmaßnahmen ergreifen zu können.
Einleitung: Die Erdnussallergie zählt zu den häufigsten Nahrungsmittelallergien im Kindesalter. Bereits kleine Mengen Erdnuss (EN) können zu schweren allergischen Reaktionen führen. EN ist der häufigste Auslöser einer lebensbedrohlichen Anaphylaxie bei Kindern und Jugendlichen. Im Gegensatz zu anderen frühkindlichen Nahrungsmittelallergien entwickeln Patienten mit einer EN-Allergie nur selten eine natürliche Toleranz. Seit mehreren Jahren wird daher an kausalen Therapiemöglichkeiten für EN-Allergiker, insbesondere an der oralen Immuntherapie (OIT), geforscht. Erste kleinere Studien zur OIT bei EN-Allergie zeigten erfolgsversprechende Ergebnisse. Im Rahmen einer randomisierten, doppelblind, Placebo-kontrollierten Studie mit größerer Fallzahl werden in der vorliegenden Arbeit die klinische Wirksamkeit und Sicherheit dieser Therapieoption bei Kindern mit EN-Allergie genauer evaluiert. Des Weiteren werden immunologische Veränderungen sowie die Lebensqualität und Therapiebelastung unter OIT untersucht.
Methoden: Kinder zwischen 3-18 Jahren mit einer IgE-vermittelten EN-Allergie wurden in die Studie eingeschlossen. Vor Beginn der OIT wurde eine orale Provokation mit EN durchgeführt. Die Patienten wurden 1:1 randomisiert und entsprechend der Verum- oder Placebogruppe zugeordnet. Begonnen wurde mit 2-120 mg EN bzw. Placebo pro Tag, abhängig von der Reaktionsdosis bei der oralen Provokation. Zunächst wurde die tägliche OIT-Dosis alle zwei Wochen über etwa 14 Monate langsam bis zu einer Erhaltungsdosis von mindestens 500 mg EN (= 125 mg EN-Protein, ~ 1 kleine EN) bzw. Placebo gesteigert. Die maximal erreichte Dosis wurde dann über zwei Monate täglich zu Hause verabreicht. Im Anschluss erfolgte erneut eine orale Provokation mit EN. Der primäre Endpunkt der Studie war die Anzahl an Patienten der Verum- und Placebogruppe, die unter oraler Provokation nach OIT ≥1200 mg EN vertrugen (=„partielle Desensibilisierung“). Sowohl vor als auch nach OIT wurde ein Hautpricktest mit EN durchgeführt und EN-spezifisches IgE und IgG4 im Serum bestimmt. Außerdem wurden die Basophilenaktivierung sowie die Ausschüttung von T-Zell-spezifischen Zytokinen nach Stimulation mit EN in vitro gemessen. Anhand von Fragebögen wurde die Lebensqualität vor und nach OIT sowie die Therapiebelastung während OIT erfasst.
Ergebnisse: 62 Patienten wurden in die Studie eingeschlossen und randomisiert. Nach etwa 16 Monaten unter OIT zeigten 74,2% (23/31) der Patienten der Verumgruppe und nur 16,1% (5/31) der Placebogruppe eine „partielle Desensibilisierung“ gegenüber EN (p<0,001). Im Median vertrugen Patienten der Verumgruppe 4000 mg EN (~8 kleine EN) unter der Provokation nach OIT wohingegen Patienten der Placebogruppe nur 80 mg EN (~1/6 kleine EN) vertrugen (p<0,001). Fast die Hälfte der Patienten der Verumgruppe (41,9%) tolerierten die Höchstdosis von 18 g EN unter Provokation („komplette Desensibilisierung“). Es zeigte sich ein vergleichbares Sicherheitsprofil unter Verum- und Placebo-OIT in Bezug auf objektive Nebenwirkungen. Unter Verum-OIT kam es jedoch signifikant häufiger zu subjektiven Nebenwirkungen wie oralem Juckreiz oder Bauchschmerzen im Vergleich zu Placebo (3,7% der Verum-OIT-Gaben vs. 0,5% der Placebo-OIT-Gaben, p<0,001). Drei Kinder der Verumgruppe (9,7%) und sieben Kinder der Placebogruppe (22,6%) beendeten die Studie vorzeitig, je zwei Patienten beider Gruppen aufgrund von Nebenwirkungen. Im Gegensatz zu Placebo, zeigten sich unter Verum-OIT signifikante immunologische Veränderungen. So kam es zu einer Abnahme des EN-spezifischen Quaddeldurchmessers im Hautpricktest, einem Anstieg der EN-spezifischen IgG4-Werte im Serum sowie zu einer verminderten EN-spezifischen Zytokinsekretion, insbesondere der Th2-spezifischen Zytokine IL-4 und IL-5. Hinsichtlich der EN-spezifischen IgE-Werte sowie der EN-spezifischen Basophilenaktivierung zeigten sich hingegen keine Veränderungen unter OIT. Die Lebensqualität von Kindern der Verumgruppe war nach OIT signifikant verbessert, jedoch nicht bei Kindern der Placebogruppe. Während der OIT wurde die Therapie von fast allen Kindern (82%) und Müttern (82%) als positiv bewertet (= niedrige Therapiebelastung).
Diskussion: Die EN-OIT führte bei einem Großteil der EN-allergischen Kinder zu einer Desensibilisierung und einer deutlich erhöhten Reaktionsschwelle auf EN. Somit sind die Kinder im Alltag vor akzidentellen Reaktionen auf EN geschützt, was die Lebensqualität der Kinder deutlich verbessert. Unter den kontrollierten Studienbedingungen zeigte sich ein akzeptables Sicherheitsprofil, mit vorrangig milder Symptomatik. Die klinische Desensibilisierung ging mit Veränderungen auf immunologischer Ebene einher. Langzeitstudien zur EN-OIT müssen jedoch abgewartet werden, um die klinische und immunologische Wirksamkeit hinsichtlich einer möglichen langfristigen oralen Toleranzinduktion sowie die Sicherheit unter langfristiger OIT zu untersuchen, bevor das Therapiekonzept in die Praxis übertragen werden kann.
Um den zunehmenden Diebstahl digitaler Identitäten zu bekämpfen, gibt es bereits mehr als ein Dutzend Technologien. Sie sind, vor allem bei der Authentifizierung per Passwort, mit spezifischen Nachteilen behaftet, haben andererseits aber auch jeweils besondere Vorteile. Wie solche Kommunikationsstandards und -Protokolle wirkungsvoll miteinander kombiniert werden können, um dadurch mehr Sicherheit zu erreichen, haben die Autoren dieser Studie analysiert. Sie sprechen sich für neuartige Identitätsmanagement-Systeme aus, die sich flexibel auf verschiedene Rollen eines einzelnen Nutzers einstellen können und bequemer zu nutzen sind als bisherige Verfahren. Als ersten Schritt auf dem Weg hin zu einer solchen Identitätsmanagement-Plattform beschreiben sie die Möglichkeiten einer Analyse, die sich auf das individuelle Verhalten eines Nutzers oder einer Sache stützt.
Ausgewertet werden dabei Sensordaten mobiler Geräte, welche die Nutzer häufig bei sich tragen und umfassend einsetzen, also z.B. internetfähige Mobiltelefone, Fitness-Tracker und Smart Watches. Die Wissenschaftler beschreiben, wie solche Kleincomputer allein z.B. anhand der Analyse von Bewegungsmustern, Positionsund Netzverbindungsdaten kontinuierlich ein „Vertrauens-Niveau“ errechnen können. Mit diesem ermittelten „Trust Level“ kann jedes Gerät ständig die Wahrscheinlichkeit angeben, mit der sein aktueller Benutzer auch der tatsächliche Besitzer ist, dessen typische Verhaltensmuster es genauestens „kennt“.
Wenn der aktuelle Wert des Vertrauens-Niveaus (nicht aber die biometrischen Einzeldaten) an eine externe Instanz wie einen Identitätsprovider übermittelt wird, kann dieser das Trust Level allen Diensten bereitstellen, welche der Anwender nutzt und darüber informieren will. Jeder Dienst ist in der Lage, selbst festzulegen, von welchem Vertrauens-Niveau an er einen Nutzer als authentifiziert ansieht. Erfährt er von einem unter das Limit gesunkenen Trust Level, kann der Identitätsprovider seine Nutzung und die anderer Services verweigern.
Die besonderen Vorteile dieses Identitätsmanagement-Ansatzes liegen darin, dass er keine spezifische und teure Hardware benötigt, um spezifische Daten auszuwerten, sondern lediglich Smartphones und so genannte Wearables. Selbst Dinge wie Maschinen, die Daten über ihr eigenes Verhalten per Sensor-Chip ins Internet funken, können einbezogen werden. Die Daten werden kontinuierlich im Hintergrund erhoben, ohne dass sich jemand darum kümmern muss. Sie sind nur für die Berechnung eines Wahrscheinlichkeits-Messwerts von Belang und verlassen niemals das Gerät. Meldet sich ein Internetnutzer bei einem Dienst an, muss er sich nicht zunächst an ein vorher festgelegtes Geheimnis – z.B. ein Passwort – erinnern, sondern braucht nur die Weitergabe seines aktuellen Vertrauens-Wertes mit einem „OK“ freizugeben.
Ändert sich das Nutzungsverhalten – etwa durch andere Bewegungen oder andere Orte des Einloggens ins Internet als die üblichen – wird dies schnell erkannt. Unbefugten kann dann sofort der Zugang zum Smartphone oder zu Internetdiensten gesperrt werden. Künftig kann die Auswertung von Verhaltens-Faktoren noch erweitert werden, indem z.B. Routinen an Werktagen, an Wochenenden oder im Urlaub erfasst werden. Der Vergleich mit den live erhobenen Daten zeigt dann an, ob das Verhalten in das übliche Muster passt, der Benutzer also mit höchster Wahrscheinlichkeit auch der ausgewiesene Besitzer des Geräts ist.
Über die Techniken des Managements digitaler Identitäten und die damit verbundenen Herausforderungen gibt diese Studie einen umfassenden Überblick. Sie beschreibt zunächst, welche Arten von Angriffen es gibt, durch die digitale Identitäten gestohlen werden können. Sodann werden die unterschiedlichen Verfahren von Identitätsnachweisen vorgestellt. Schließlich liefert die Studie noch eine zusammenfassende Übersicht über die 15 wichtigsten Protokolle und technischen Standards für die Kommunikation zwischen den drei beteiligten Akteuren: Service Provider/Dienstanbieter, Identitätsprovider und Nutzer. Abschließend wird aktuelle Forschung des Hasso-Plattner-Instituts zum Identitätsmanagement vorgestellt.
In Vorbereitung zur Teilnahme am Times Higher Education Ranking hat die Universität Potsdam das Publikationsaufkommen im Rahmen einer Output-Analyse gemessen. Es stellte sich heraus, dass die Angabe der Affiliation, welche die Wissenschaftlerinnen und Wissenschaftler tätigen, eine wichtige Stellschraube zur Ermittlung der Grundzahl ist. Der vorliegende Artikel spiegelt die herausfordernde Ausgangssituation wider.
In Vorbereitung zur Teilnahme am Times Higher Education Ranking hat die Universität Potsdam das Publikationsaufkommen im Rahmen einer Output-Analyse gemessen. Es stellte sich heraus, dass die Angabe der Affiliation, welche die Wissenschaftlerinnen und Wissenschaftler tätigen, eine wichtige Stellschraube zur Ermittlung der Grundzahl ist. Der vorliegende Artikel spiegelt die herausfordernde Ausgangssituation wider.
Conditions
(2017)
Whenever we think, decide or act, different sorts of conditions are involved which substantially determine how we do it. We do not create the contents of our thoughts. They are given to us in experience. And the constraints and restrictions that bind our decisions and actions are imposed upon us by the environments and milieus to which we as deciding agents belong, and in which we have to decide and act. The conditions which determine us when thinking, deciding and acting are the subject matter of this essay, how they work, and what possibilities we have got of changing or transforming them.
Der technologische Wandel stellt Organisationen vor die Herausforderung, Innovationen möglichst schnell produktiv zu nutzen und damit einen Wettbewerbsvorteil zu erzielen. Der Erfolg der Technologieeinführung hängt stark mit der Schaffung von Akzeptanz bei den Mitarbeitern zusammen. Bestehende Ansätze wie die Diffusionstheorie (Rogers, 2003) oder das Technology Acceptance Model (Davis, 1989; Venkatesh und Davis, 1996; Venkatesh und Davis, 2000; Venkatesh, Morris u. a., 2003) widmen sich dem Organisationskontext jedoch nur am Rande. Ihre Modelle zielen auf die Übernahme einer Technologie in freier Entscheidung und im Marktkontext ab. Weiterhin beleuchten sie den Widerstand gegen Neuerungen nicht, welcher sich bei der verpflichtenden Übernahme bilden kann. Zur Untersuchung der Technologieeinführung und von Akzeptanzbildungsprozessen in Organisationen sind sie daher nur begrenzt nutzbar.
Das Ziel dieser Arbeit ist es daher, den spezifischen Einfluss des Kontextes Organisation auf die Akzeptanz und das Nutzungsverhalten herauszuarbeiten. Konkreter soll die Forschungsfrage geklärt werden, welchen Einfluss unterschiedliche Organisationstypen auf die Akzeptanz- und Nutzungsdynamik innerhalb von Organisationen haben. Hierfür wird die Erweiterung und Synthese bestehender Modelle der Akzeptanzforschung um organisationsspezifische Attribute vorgenommen. Das resultierende Modell erfasst die dynamische Entwicklung innerhalb der Organisation und ermöglicht damit die Beobachtung des Wandels. Die Funktionsweise des entwickelten Modells soll in einem Simulationsexperiment demonstriert und die Wirkung unterschiedlicher Organisationsformen verdeutlicht werden.
Das Modell vereint daher zwei Perspektiven: Die personale Perspektive fasst Akzeptanz als kognitiv-psychischen Prozess auf individueller Ebene. Dieser basiert auf den Kalkülen und Entscheidungen einzelner Personen. Zentral sind hierfür die Beiträge der Diffusionstheorie (Rogers, 2003) sowie das Technology Acceptance Model in seinen diversen Weiterentwicklungen und Veränderungen (Davis, 1989; Venkatesh und Davis, 1996; Venkatesh und Davis, 2000; Venkatesh, Morris u. a., 2003). Individuelle Faktoren aus unterschiedlichen Fit-Theorien (Goodhue und Thompson, 1995; Floyd, 1986; Liu, Lee und Chen, 2011; Parkes, 2013) werden genutzt, um diese Modelle anzureichern. Neben der Entwicklung
einer positiven, förderlichen Einstellung muss jedoch auch die Ablehnung und das offene Opponieren gegen die Innovation berücksichtigt werden (Patsiotis, Hughes und Webber, 2012).
Die organisatorische Perspektive hingegen sieht Akzeptanzentscheidungen eingebettet in den sozialen Kontext der Organisation. Die gegenseitige Beeinflussung basiert auf der Beobachtung der Umgebung und der Internalisierung sozialen Drucks. Dem steht in Organisationen die intendierte Beeinflussung in Form von Steuerung gegenüber. Beide Vorgänge formen das Akzeptanz- oder das Nutzungsverhalten der Mitarbeiter. Ausgehend von einem systemtheoretischen Organisationsbegriff werden unterschiedliche Steuerungsmedien (Luhmann, 1997; Fischer, 2009) vorgestellt. Diese können durch Steuerungsakteure
(Change Agents, Management) intendiert eingesetzt werden, um den Akzeptanz- und Nutzungsprozess über Interventionen zu gestalten.
Die Wirkung der Medien unterscheidet sich in verschiedenen Organisationstypen. Zur Analyse unterschiedlicher Organisationstypen werden die Konfigurationen nach Mintzberg (1979) herangezogen. Diese zeichnen sich durch unterschiedliche Koordinationsmechanismen aus, welche wiederum auf dem Einsatz von Steuerungsmedien beruhen.
Die Demonstration der Funktionsweise und Analysemöglichkeiten des entwickelten Modells erfolgt anhand eines Simulationsexperiments mittels der Simulationsplattform AnyLogic. Das Gültigkeitsspektrum wird anhand einer Sensitivitätsanalyse geprüft.
In der Simulation lassen sich spezifische Muster der Nutzung und Akzeptanzentwicklung nachweisen. Die Akzeptanz ist durch ein initiales Absinken und ein anschließendes gedämpftes Wachstum gekennzeichnet. Die Nutzung wird in der Organisation hingegen schnell durchgesetzt und verharrt dann auf einem stabilen Niveau. Für die Organisationstypen konnten unterschiedliche Effekte beobachtet werden. So eignet sich die bürokratische Steuerungsform zur Nutzungserhöhung, schafft es jedoch nicht, die Akzeptanz zu steigern. Organisationen, welche eher auf gegenseitige Abstimmung zur Koordination ausgelegt sind, erhöhen die Akzeptanz, jedoch nicht die Nutzung. Weiterhin ist die Entwicklung der Akzeptanz in diesem Organisationstyp sehr unsicher und weist einen hohen Schwankungsbereich auf.
Während des Praxissemesters sammeln Studierende ihre ersten längeren praktischen Erfahrungen als Lehrkraft. Es ist davon auszugehen, dass diese ersten Erfahrungen bereits prägend für die spätere Lehrtätigkeit sein können. Sei es als berufliche Orientierung oder als kleiner Schritt zur Herausbildung der eigenen Lehrpersönlichkeit. Herr Ingmar Thews widmet sich mit seiner Arbeit der wichtigen Frage, inwieweit Studierende Schule als Raum für „expansives“ oder „defensives“ Lernen erleben. Dabei führt er nach der subjektwissenschaftlichen Theorie von Klaus Holzkamp eine Inhaltsanalyse von Tonaufnahmen, welche während des Praxissemesters entstanden sind, durch. Die Ergebnisse bieten einen tieferen Einblick, wie Studierende Schule während ihrer Praxisphasen erleben. Dass defensives Lernen immer noch einen großen Teil der Erfahrungen der Studierenden ausmacht und zum Alltag von Schule gehört, ist eine Erkenntnis, die einen nachdenklich stimmen kann. Mit dem Seminarkonzept „Expansives Lernen fördern durch eine prozessorientierte Didaktik“ hat Herr Thews einen Rahmen geschaffen, der Studierenden die Möglichkeit gibt, über ihre negativen und positiven Erfahrungen zu sprechen und gleichzeitig über die Gestaltung expansiver Lernräume nachzudenken. Im Sinne einer prozessorientierten Didaktik würden wir uns freuen, wenn die Handreichung von Herrn Thews vielfältige Verwendung und Erweiterung in anderen Seminaren des Praxissemesters findet.
Der Erfolg eines Finanzinstituts im Kreditgeschäft mit Firmenkunden wird maßgeblich von der Fähigkeit bestimmt, die künftige Bonität von Unternehmen einzuschätzen. Durch eine zunehmend starke Regulierung und einen sich verschärfenden Wettbewerb gewinnen prognosestarke Kreditrisikomodelle weiter an Bedeutung. Sowohl in der theoretischen Forschung als auch in der Regulierungspraxis, wie in der Kreditwirtschaft insgesamt, dominieren jedoch seit Jahrzehnten Modelle und Verfahren der Ausfallprognose, welche eine starke Vergangenheitsorientierung implizieren. Dies betrifft im Grunde die gesamte betriebswirtschaftliche Krisenforschung.
Dieses Spannungsfeld – einhergehend mit einer mangelnden theoretischen Fundierung bisheriger Ansätze zur Bonitätsprognose – greift der Autor auf, indem er die Logik des Unternehmensbewertungsmodells von Schwartz/Moon (2001) auf die Ausfallprognose von Unternehmen überträgt. Erweiterungen dieses Modells, etwa um die Berücksichtigung qualitativer Einflussfaktoren wie der Managementqualität, resultieren im Potsdamer Modell zur simulativen Prognose der Ausfallwahrscheinlichkeit von Unternehmen. Ausgangspunkt des Verfahrens bildet die Monte Carlo Simulation, wodurch – im Gegensatz zu traditionellen Verfahren der Insolvenzprognose – ökonomisch fundierte Ursache-Wirkungszusammenhänge einen Ausfall definieren. Die empirische Untersuchung verdeutlicht das große Potenzial des Modells und damit einhergehend die Notwendigkeit eines Paradigmenwechsels bei der Prognose der Ausfallwahrscheinlichkeit von Unternehmen.
Age of Empires 3
(2017)
Der vorliegende Beitrag beschäftigt sich mit einem Gedicht Heiner Müllers, das dieser in unmittelbarer Reaktion auf den Zusammenbruch des osteuropäischen Sozialismus verfasste. Da dieses Gedicht in mehreren Etappen geschrieben und publiziert wurde, gibt es Einblicke in die von Umbruch und Verwerfungen gekennzeichnete Entstehungssituation, die der Beitrag erläutern will.
Es kann gleichermaßen als eine vorläufige Lebensbilanz des Autors gelesen werden, wo sich selbstkritische Äußerungen zu den Irrtümern mit denen einer geschichtlichen Epoche kreuzen. Da die eingenommene Haltung zu diesem komplexen Veränderungsprozess und die Bewertung dieser Wende durch den Autor auch wiederum einer Selbstkritik unterworfen wurde, versucht der Beitrag, einen Einblick in die geschichtsphilosophische und ästhetische Werkstatt des Autors Heiner Müller zu geben.
Laudatio
(2017)
Der Gefangene als Phantom
(2017)
Der »hooded man« aus dem Abu-Ghraib-Folterskandal war 2004 medial omnipräsent und erhitzt seitdem Diskussionen über die Repräsentation von Gefangenschaft als Form der Selbst- und Fremdbeschreibung. Stephanie Siewert zeigt, dass die Inszenierungen von Gemeinschaft in Darstellungen der Gefangenschaft nicht neu sind. Ihre transnational angelegte Studie zeichnet nach, wie Literatur und Medien seit Mitte des 19. Jahrhunderts an der Herstellung und Dekonstruktion einer Phantom-Position beteiligt sind, die sich in der Moderne über verschiedene Strukturen der Bannung manifestiert. Dabei wird das Wechselspiel ethnischer, sozialer und geschlechterspezifischer Zuschreibungen in den ästhetischen Anordnungen und Verfahren des Verschwindenmachens betont.
Mentor Texts
(2017)
Das vorliegende Werk widmet sich den an deutschen Hochschulen oftmals wiederkehrenden Fragestellungen zur Ausgestaltung und Anwendung von Prüfungsverfahren. Unter Bezugnahme auf die bestehenden verfassungs- und verwaltungsrechtlichen Anforderungen, die für Hochschulabschlussprüfungen als auch für studienbegleitende Leistungskontrollen gelten, wird darin umfassend erörtert,
- für welche Prüfungsleistungen eine Begründungspflicht besteht,
- in welchen Fällen eine Kollegialprüfung durchzuführen ist,
- welche Prüflinge für die Herstellung einheitlicher Prüfungsbedingungen miteinander vergleichbar sind,
- welche verwaltungsrechtliche Qualität Hochschulprüfungsleistungen anhaftet,
- ob generell ein Anspruch auf ein verwaltungsinternes Kontrollverfahren gegen die gerügte Bewertung einer Hochschulprüfungsleistungen besteht und wenn ja in welchem Umfang, bzw. mit welchen rechtlichen Instrumentarien auf eine Bewertungsrüge zu reagieren ist
- und ob das Rechtsinstitut der reformatio in peius bei der Bescheidung einer Bewertungsrüge Anwendung finden darf.
Im Anschluss daran wird unter Berücksichtigung der aktuellen Rechtslage dargestellt, inwieweit der parlamentarische Gesetzgeber dem verfassungsrechtlich gebotenen Kodifikationsbedarf im Hochschulprüfungsrecht entspricht und an welchen Stellen Nachbesserungsbedarf besteht.
Mit Inkrafttreten der NFA 2008 hat die Schweiz ihren Finanzausgleich umfassend reformiert und erstmals auch einen direkt umverteilenden Ausgleich zwischen den Kantonen geschaffen. Diese Reform blieb auf deutscher Seite weitgehend unbeachtet. Der Autor vergleicht zunächst die finanzverfassungsrechtlichen Grundstrukturen in beiden Ländern und erläutert das bestehende und das ab 2020 geltende deutsche System. Dem folgt eine umfassende Analyse des sekundären Finanzausgleichs in der Schweiz, sog. Finanzausgleich im engeren Sinn, mit ausführlicher Darstellung des Ressourcenausgleichs sowie des geografisch-topografischen und soziodemografischen Lastenausgleichs. Im Anschluss werden nach Problemschwerpunkten gegliedert Reformoptionen für Deutschland aufgezeigt. Der Autor plädiert insbesondere für einen nach Schweizer Vorbild gestalteten indikatorbasierten Lastenausgleich, um dem verfassungsrechtlichen Benennungs- und Begründungsgebot bei Sonderlasten besser gerecht zu werden.
Im Jahr 1836 traf der US-amerikanische Geistliche und Sammler historischer Dokumente William B. Sprague (1795–1876) während seines zweiten Europabesuches auch mit Alexander von Humboldt in Berlin zusammen. Im Verlaufe des Gespräches zeigte sich Humboldt mit den politischen Entwicklungen in den Vereinigten Staaten bestens vertraut. Er kritisierte das Sklavensystem, räumte aber auch ein, dass er viele Aspekte der amerikanischen Demokratie bewunderte.
Das Thema der vorliegenden Arbeit ist die semantische Suche im Kontext heutiger Informationsmanagementsysteme. Zu diesen Systemen zählen Intranets, Web 3.0-Anwendungen sowie viele Webportale, die Informationen in heterogenen Formaten und Strukturen beinhalten. Auf diesen befinden sich einerseits Daten in strukturierter Form und andererseits Dokumente, die inhaltlich mit diesen Daten in Beziehung stehen. Diese Dokumente sind jedoch in der Regel nur teilweise strukturiert oder vollständig unstrukturiert. So beschreiben beispielsweise Reiseportale durch strukturierte Daten den Zeitraum, das Reiseziel, den Preis einer Reise und geben in unstrukturierter Form weitere Informationen, wie Beschreibungen zum Hotel, Zielort, Ausflugsziele an.
Der Fokus heutiger semantischer Suchmaschinen liegt auf dem Finden von Wissen entweder in strukturierter Form, auch Faktensuche genannt, oder in semi- bzw. unstrukturierter Form, was üblicherweise als semantische Dokumentensuche bezeichnet wird. Einige wenige Suchmaschinen versuchen die Lücke zwischen diesen beiden Ansätzen zu schließen. Diese durchsuchen zwar gleichzeitig strukturierte sowie unstrukturierte Daten, werten diese jedoch entweder weitgehend voneinander unabhängig aus oder schränken die Suchmöglichkeiten stark ein, indem sie beispielsweise nur bestimmte Fragemuster unterstützen. Hierdurch werden die im System verfügbaren Informationen nicht ausgeschöpft und gleichzeitig unterbunden, dass Zusammenhänge zwischen einzelnen Inhalten der jeweiligen Informationssysteme und sich ergänzende Informationen den Benutzer erreichen.
Um diese Lücke zu schließen, wurde in der vorliegenden Arbeit ein neuer hybrider semantischer Suchansatz entwickelt und untersucht, der strukturierte und semi- bzw. unstrukturierte Inhalte während des gesamten Suchprozesses kombiniert. Durch diesen Ansatz werden nicht nur sowohl Fakten als auch Dokumente gefunden, es werden auch Zusammenhänge, die zwischen den unterschiedlich strukturierten Daten bestehen, in jeder Phase der Suche genutzt und fließen in die Suchergebnisse mit ein. Liegt die Antwort zu einer Suchanfrage nicht vollständig strukturiert, in Form von Fakten, oder unstrukturiert, in Form von Dokumenten vor, so liefert dieser Ansatz eine Kombination der beiden. Die Berücksichtigung von unterschiedlich Inhalten während des gesamten Suchprozesses stellt jedoch besondere Herausforderungen an die Suchmaschine. Diese muss in der Lage sein, Fakten und Dokumente in Abhängigkeit voneinander zu durchsuchen, sie zu kombinieren sowie die unterschiedlich strukturierten Ergebnisse in eine geeignete Rangordnung zu bringen. Weiterhin darf die Komplexität der Daten nicht an die Endnutzer weitergereicht werden. Die Darstellung der Inhalte muss vielmehr sowohl bei der Anfragestellung als auch bei der Darbietung der Ergebnisse verständlich und leicht interpretierbar sein.
Die zentrale Fragestellung der Arbeit ist, ob ein hybrider Ansatz auf einer vorgegebenen Datenbasis die Suchanfragen besser beantworten kann als die semantische Dokumentensuche und die Faktensuche für sich genommen, bzw. als eine Suche die diese Ansätze im Rahmen des Suchprozesses nicht kombiniert. Die durchgeführten Evaluierungen aus System- und aus Benutzersicht zeigen, dass die im Rahmen der Arbeit entwickelte hybride semantische Suchlösung durch die Kombination von strukturierten und unstrukturierten Inhalten im Suchprozess bessere Antworten liefert als die oben genannten Verfahren und somit Vorteile gegenüber bisherigen Ansätzen bietet. Eine Befragung von Benutzern macht deutlich, dass die hybride semantische Suche als verständlich empfunden und für heterogen strukturierte Datenmengen bevorzugt wird.