Refine
Has Fulltext
- yes (419) (remove)
Year of publication
- 2011 (419) (remove)
Document Type
- Article (255)
- Monograph/Edited Volume (47)
- Doctoral Thesis (37)
- Postprint (25)
- Review (21)
- Master's Thesis (12)
- Part of Periodical (11)
- Working Paper (4)
- Conference Proceeding (2)
- Other (2)
Language
- German (419) (remove)
Keywords
- Deutschland (16)
- Afghanistan (15)
- Bürgerschaft (15)
- Germany (15)
- Integration (15)
- International Politics (15)
- Internationale Politik (15)
- Migration (15)
- Friedens- und Konfliktforschung (14)
- Peace and Conflict Studies (14)
Institute
- MenschenRechtsZentrum (69)
- WeltTrends e.V. Potsdam (60)
- Institut für Slavistik (49)
- Wirtschaftswissenschaften (38)
- Institut für Romanistik (28)
- Institut für Jüdische Studien und Religionswissenschaft (27)
- Vereinigung für Jüdische Studien e. V. (27)
- Historisches Institut (19)
- Department Linguistik (16)
- Extern (16)
Dieses Lehrvideo zeigt aus der Perspektive einer Übertischkamera den fiktiven informatischen Hochleister Tom bei der Bearbeitung eines schwierigen Färbeproblems. Dabei kann man die fortlaufend von ihm angefertigten Skizzen beobachten und seine Gedankengänge genau verfolgen. Denn dieser Problemlöser arbeitet unter lautem Denken, d. h. er spricht alle seine Gedankengänge laut aus. Man kann zuschauen, wie Tom zunächst die Aufgabe analysiert und die dadurch gewonnenen Erkenntnisse in der anschließenden Problembearbeitung gewinnbringend einsetzt. Der Zuschauer wird dabei aber nicht allein gelassen. An markanten Stellen wird das Video unterbrochen und Toms zurückliegende Aktivitäten mit animierten Bildsequenzen vertiefend erläutert. Schwache Problemlöser können so die in Unterricht oder Vorlesung vermittelten Kenntnisse über informatische Problemlösemethoden vertiefen und deren Anwendung durch einen starken Problemlöser beispielhaft miterleben. Entstanden ist dieses Video aus einer Vergleichsstudie mit starken und schwachen Problemlösern. Die effizienten Methoden der Hochleister wurden didaktisch aufgearbeitet und zu einem modellhaften Problemlöseprozess zusammengesetzt. Der wissenschaftliche Hintergrund des Lehrvideos wird durch eine als Bildergeschichte erzählte Rahmenhandlung verdeutlicht. Bei Erstsemesterstudenten der Informatik, denen dieses Video zur Bewertung vorgespielt wurde, fand dieses Konzept große Zustimmung. Tenor: Unterhaltsam und lehrreich zugleich.
Die vorliegende Arbeit betrachtet Partizipation aus einer interaktionalen Perspektive und nimmt zunächst eine interdisziplinär orientierte Begriffsbestimmung vor. Daran anschließend werden anhand einer Längsschnittstudie Entwicklungsbedingungen sozialer Partizipationskompetenzen im Vorschulalter untersucht und Förderempfehlungen abgeleitet. Partizipation (Teilhabe) soll in Kontexten wie Schule oder Arbeitswelt Entscheidungen demokratisch legitimieren, individuelle Ressourcen ausschöpfen und soziale Grundbedürfnisse des Menschen befriedigen. Ein engeres Verständnis von sozialer Partizipation aus einer interaktionalen Perspektive erfordert die Beteiligung an den Aktivitäten einer bereits bestehenden Gruppe und die Aushandlung eigener Interessen innerhalb dieser Gruppe und wird in der Arbeit als Prozess anhand dreier Phasen (Anbahnung, Projektierung und Realisierung) dargestellt. Im Vorschulalter werden wichtige Grundsteine für eine erfolgreiche soziale Entwicklung und für den Erwerb von sozialen Partizipationskompetenzen gelegt. In der vorliegenden Arbeit wurden deshalb die Zusammenhänge und Wechselwirkungen zwischen sozialen Partizipationskompetenzen (Bereitschaft und Fähigkeit) und (1) kognitiven Leistungsparametern (Intelligenz und Perspektivenübernahme), (2) dem Selbstkonzept und (3) dem Konfliktverhalten (Aggression und Schüchternheit) mit 5- bis 7jährigen Kindern mit Hilfe von Kreuzpfadanalysen untersucht. Zudem wurde die Situationsgebundenheit sozialer Partizipationskompetenzen und die Bedeutung struktureller Parameter der Familie und der Kindertageseinrichtung auf explorativer Ebene analysiert. Die Stichprobe bestand aus 334 Kindern (51,5 % weiblich, Altersdurchschnitt zum ersten Messzeitpunkt 5,4 Jahre) in 71 Kindergartengruppen in 21 Kindertageseinrichtungen in vier Bundesländern. Die längsschnittliche Datenanalyse basiert auf drei Messzeitpunkten. Die Ergebnisse zeigen, dass soziale Partizipationskompetenzen über verschiedene Situationen hinweg bedeutsame, aber nur mäßig ausgeprägte, Zusammenhänge aufweisen. Hohe Ausprägungen kognitiver Leistungsparameter gehen mit hohen Erziehereinschätzungen sozialer Partizipationskompetenzen einher. Über die Zusammenhänge hinaus zeigen sich im Längsschnitt bedeutsame Wechselwirkungen zwischen kognitiver Entwicklung und sozialen Partizipationskompetenzen im Vorschulalter. Selbsteinschätzungen zur eigenen Kompetenz hängen im Vorschulalter hingegen nur gering mit Erziehereinschätzungen der sozialen Partizipationskompetenz zusammen. Im Längsschnitt zeigt sich, dass junge Kinder bei der Beurteilung ihrer Kompetenzen zunächst auf soziale Partizipationserfolge zurückgreifen. Später hingegen scheint der Partizipationserfolg dann umgekehrt eher durch das Selbstbild bedingt zu sein. Geringe Partizipationskompetenzen gehen mit hohen Erziehereinschätzungen beim aggressiven (schwach signifikant) und schüchternen Verhalten (mäßig signifikant) einher. Hinsichtlich der Aggression und des schüchternen Verhaltens ergaben sich längsschnittlich betrachtet nur schwache Wechselwirkungen zur sozialen Partizipationskompetenz. Die Kumulation familiärer Belastungssituationen (z.B. Krankheit und akute Finanznot) stellen eine größere Bedrohung für die kindliche Entwicklung dar als der sozio-ökonomische Status der Familie. Mit Blick auf die Förderung sozialer Partizipationskompetenzen lassen sich die Ergebnisse mit einem sozial-konstruktivistischen Ansatz verbinden. Dessen Ziel ist es, intra- und interpersonelle Konflikte auszulösen, deren erfolgreiche Bewältigung produktive Lernprozesse auf kognitiver, emotionaler und behavioraler Ebene anstoßen.
Bildverarbeitungsanwendungen stellen besondere Ansprüche an das ausführende Rechensystem. Einerseits ist eine hohe Rechenleistung erforderlich. Andererseits ist eine hohe Flexibilität von Vorteil, da die Entwicklung tendentiell ein experimenteller und interaktiver Prozess ist. Für neue Anwendungen tendieren Entwickler dazu, eine Rechenarchitektur zu wählen, die sie gut kennen, anstatt eine Architektur einzusetzen, die am besten zur Anwendung passt. Bildverarbeitungsalgorithmen sind inhärent parallel, doch herkömmliche bildverarbeitende eingebettete Systeme basieren meist auf sequentiell arbeitenden Prozessoren. Im Gegensatz zu dieser "Unstimmigkeit" können hocheffiziente Systeme aus einer gezielten Synergie aus Software- und Hardwarekomponenten aufgebaut werden. Die Konstruktion solcher System ist jedoch komplex und viele Lösungen, wie zum Beispiel grobgranulare Architekturen oder anwendungsspezifische Programmiersprachen, sind oft zu akademisch für einen Einsatz in der Wirtschaft. Die vorliegende Arbeit soll ein Beitrag dazu leisten, die Komplexität von Hardware-Software-Systemen zu reduzieren und damit die Entwicklung hochperformanter on-Chip-Systeme im Bereich Bildverarbeitung zu vereinfachen und wirtschaftlicher zu machen. Dabei wurde Wert darauf gelegt, den Aufwand für Einarbeitung, Entwicklung als auch Erweiterungen gering zu halten. Es wurde ein Entwurfsfluss konzipiert und umgesetzt, welcher es dem Softwareentwickler ermöglicht, Berechnungen durch Hardwarekomponenten zu beschleunigen und das zu Grunde liegende eingebettete System komplett zu prototypisieren. Hierbei werden komplexe Bildverarbeitungsanwendungen betrachtet, welche ein Betriebssystem erfordern, wie zum Beispiel verteilte Kamerasensornetzwerke. Die eingesetzte Software basiert auf Linux und der Bildverarbeitungsbibliothek OpenCV. Die Verteilung der Berechnungen auf Software- und Hardwarekomponenten und die daraus resultierende Ablaufplanung und Generierung der Rechenarchitektur erfolgt automatisch. Mittels einer auf der Antwortmengenprogrammierung basierten Entwurfsraumexploration ergeben sich Vorteile bei der Modellierung und Erweiterung. Die Systemsoftware wird mit OpenEmbedded/Bitbake synthetisiert und die erzeugten on-Chip-Architekturen auf FPGAs realisiert.
Vektorfehlerkorrekturmodelle (VECM) erlauben es, Abhängigkeiten zwischen den Veränderungen mehrerer potenziell endogener Variablen simultan zu modellieren. Die Idee, ein langfristiges Gleichgewicht gleichzeitig mit kurzfristigen Veränderungen zu modellieren, lässt sich vom Eingleichungsansatz des Fehlerkorrekturmodells (ECM) zu einem Mehrgleichungsansatz für Variablenvektoren (VECM) verallgemeinern. Die Anzahl der kointegrierenden Beziehungen und die Koeffizientenmatrizen werden mit dem Johansen-Verfahren geschätzt. An einer einfachen Verallgemeinerung einer Konsumfunktion wird die Schätzung und Wirkungsweise eines VECM für Verbrauch, Einkommen und Aktienkurse in Deutschland gezeigt. Die Anwendung der Beveridge- Nelson-(BN)-Dekomposition auf vektorautoregressive Prozesse ermöglicht zudem, Abhängigkeiten zwischen den aus den kointegrierten Zeitreihen extrahierten zyklischen Komponenten zu schätzen.
Die Impuls-Antwort-Analyse – auch Schockanalyse genannt – stellt eine wichtige Möglichkeit der vertiefenden Analyse von vektorautoregressiven (VAR) Modellen dar. Bei der Schätzung der Impuls-Antwort-Folgen müssen die Zeitreiheneigenschaften der zugrundeliegenden Daten berücksichtigt werden. Weisen die Zeitreihen stochastische Trends auf und sind die Zeitreihen kointegriert, kann die Impuls-Antwort-Analyse auf der Basis eines kointegrierenden VAR-Modells (VECM) erfolgen. Pesaran und Shin (1998) entwickelten die verallgemeinerten (Generalized) Impuls-Antwort-Funktionen, um den Mangel der fehlenden Eindeutigkeit der orthogonalen Schockanalyse zu umgehen. Am Beispiel der Variablen einer Konsumfunktion für Deutschland werden die auf der Grundlage eines Vektor-Fehlerkorrekturmodells berechneten verallgemeinerten Impuls-Antwort-Folgen den orthogonalen gegenübergestellt.
Expeditionen in die Fremde
(2011)
Afghanistan – Ein Menetekel
(2011)
Renaissance des Bürgers
(2011)
Urbane Integration
(2011)