510 Mathematik
Refine
Year of publication
Document Type
- Preprint (13)
- Article (10)
- Doctoral Thesis (5)
- Master's Thesis (5)
- Part of a Book (4)
- Bachelor Thesis (2)
- Monograph/Edited Volume (2)
- Conference Proceeding (2)
- Postprint (2)
- Course Material (1)
Language
- German (46) (remove)
Keywords
- Bruchzahlen (2)
- Corona (2)
- Mathematikdidaktik (2)
- Mathematikunterricht (2)
- Verzweigungsprozess (2)
- branching process (2)
- didactics of mathematics (2)
- ACAT (1)
- Activity Theory (1)
- Alfred Schütz (1)
Institute
Übungsbuch zur Stochastik
(2023)
Dieses Buch stellt Übungen zu den Grundbegriffen und Grundsätzen der Stochastik und ihre Lösungen zur Verfügung. So wie man Tonleitern in der Musik trainiert, so berechnet man Übungsaufgaben in der Mathematik. In diesem Sinne soll dieses Übungsbuch vor allem als Vorlage dienen für das eigenständige, eigenverantwortliche Lernen und Üben.
Die Schönheit und Einzigartigkeit der Wahrscheinlichkeitstheorie besteht darin, dass sie eine Vielzahl von realen Phänomenen modellieren kann. Daher findet man hier Aufgaben mit Verbindungen zur Geometrie, zu Glücksspielen, zur Versicherungsmathematik, zur Demographie und vielen anderen Themen.
Zahlen in den Fingern
(2023)
Die Debatte über den Einsatz von digitalen Werkzeugen in der mathematischen Frühförderung ist hoch aktuell. Lernspiele werden konstruiert, mit dem Ziel, mathematisches, informelles Wissen aufzubauen und so einen besseren Schulstart zu ermöglichen. Doch allein die digitale und spielerische Aufarbeitung führt nicht zwingend zu einem Lernerfolg. Daher ist es umso wichtiger, die konkrete Implementation der theoretischen Konstrukte und Interaktionsmöglichkeiten mit den Werkzeugen zu analysieren und passend aufzubereiten.
In dieser Masterarbeit wird dazu exemplarisch ein mathematisches Lernspiel namens „Fingu“ für den Einsatz im vorschulischen Bereich theoretisch und empirisch im Rahmen der Artifact-Centric Activity Theory (ACAT) untersucht. Dazu werden zunächst die theoretischen Hintergründe zum Zahlensinn, Zahlbegriffserwerb, Teil-Ganze-Verständnis, der Anzahlwahrnehmung und -bestimmung, den Anzahlvergleichen und der Anzahldarstellung mithilfe von Fingern gemäß der Embodied Cognition sowie der Verwendung von digitalen Werkzeugen und Multi-Touch-Geräten umfassend beschrieben. Anschließend wird die App Fingu erklärt und dann theoretisch entlang des ACAT-Review-Guides analysiert. Zuletzt wird die selbstständig durchgeführte Studie mit zehn Vorschulkindern erläutert und darauf aufbauend Verbesserungs- und Entwicklungsmöglichkeiten der App auf wissenschaftlicher Grundlage beigetragen. Für Fingu lässt sich abschließend festhalten, dass viele Prozesse wie die (Quasi-)Simultanerfassung oder das Zählen gefördert werden können, für andere wie das Teil-Ganze-Verständnis aber noch Anpassungen und/oder die Begleitung durch Erwachsene nötig ist.
Das Eigene und das Fremde
(2023)
Die vorliegende Arbeit stellt eine Untersuchung des Fremdverstehens von Lehrkräften im Mathematikunterricht dar. Mit ‚Fremdverstehen‘ soll dabei – in Anlehnung an den Soziologen Alfred Schütz – der Prozess bezeichnet werden, in welchem eine Lehrkraft versucht, das Verhalten einer Schülerin oder eines Schülers zu verstehen, indem sie dieses Verhalten auf ein Erleben zurückführt, das ihm zugrunde gelegen haben könnte. Als ein wesentliches Merkmal des Prozesses stellt Schütz in seiner Theorie des Fremdverstehens heraus, dass das Fremdverstehen eines Menschen immer auch auf seinen eigenen Erlebnissen basiert. Aus diesem Grund wird in der Arbeit ein methodischer Zweischritt vorgenommen: Es werden zunächst die mathematikbezogenen Erlebnisse zweier Lehrkräfte nachgezeichnet, bevor dann ihr Fremdverstehen in konkreten Situationen im Mathematikunterricht rekonstruiert wird. In der ersten Teiluntersuchung (= der Rekonstruktion eigener Erlebnisse der untersuchten Lehrkräfte) erfolgt die Datenerhebung mit Hilfe biographisch-narrativer Interviews, in denen die untersuchten Lehrkräfte angeregt werden, ihre mathematikbezogene Lebensgeschichte zu erzählen. Die Analyse dieser Interviews wird im Sinne der rekonstruktiven Fallanalyse vorgenommen. Insgesamt führt die erste Teiluntersuchung zu textlichen Darstellungen der rekonstruierten mathematikbezogenen Lebensgeschichte der untersuchten Mathematiklehrkräfte. In der zweiten Teiluntersuchung (= der Rekonstruktion des Fremdverstehens der untersuchten Lehrkräfte) werden dann narrative Interviews geführt, in denen die untersuchten Lehrkräfte von ihrem Fremdverstehen in konkreten Situationen im Mathematikunterricht erzählen. Die Analyse dieser Interviews erfolgt mit Hilfe eines dreischrittigen Analyseverfahrens, welches die Autorin eigens zum Zweck der Rekonstruktion von Fremdverstehen entwickelte. Am Ende dieser zweiten Teiluntersuchung werden sowohl das rekonstruierte Fremdverstehen der Lehrkräfte in verschiedenen Unterrichtssituationen dargestellt als auch Strukturen, die sich in ihrem Fremdverstehen abzeichnen. Mit Hilfe einer theoretischen Verallgemeinerung werden schließlich – auf Basis der Ergebnisse der zweiten Teiluntersuchung – Aussagen über fünf Merkmale des Fremdverstehens von Lehrkräften im Mathematikunterricht im Allgemeinen gewonnen. Mit diesen Aussagen vermag die Arbeit eine erste Beschreibung davon hervorzubringen, wie sich das Phänomen des Fremdverstehens von Lehrkräften im Mathematikunterricht ausgestalten kann.
Die Erweiterung des natürlichen Zahlbereichs um die positiven Bruchzahlen und die negativen ganzen Zahlen geht für Schülerinnen und Schüler mit großen gedanklichen Hürden und einem Umbruch bis dahin aufgebauter Grundvorstellungen einher. Diese Masterarbeit trägt wesentliche Veränderungen auf der Vorstellungs- und Darstellungsebene für beide Zahlbereiche zusammen und setzt sich mit den kognitiven Herausforderungen für Lernende auseinander. Auf der Grundlage einer Diskussion traditioneller sowie alternativer Lehrgänge der Zahlbereichserweiterung wird eine Unterrichtskonzeption für den Mathematikunterricht entwickelt, die eine parallele Einführung der Bruchzahlen und der negativen Zahlen vorschlägt. Die Empfehlungen der Unterrichtkonzeption erstrecken sich über den Zeitraum von der ersten bis zur siebten Klassenstufe, was der behutsamen Weiterentwicklung und Modifikation des Zahlbegriffs viel Zeit einräumt, und enthalten auch didaktische Überlegungen sowie konkrete Hinweise zu möglichen Aufgabenformaten.
Das Professionswissen von Lehrkräften gehört zu den bedeutendsten Stellschrauben der Bildung an den Schulen. Seine Kernbereiche sind fachwissenschaftliches Wissen und fachdidaktisches Wissen, welche hauptsächlich in der universitären Ausbildung erworben werden.
Die vorliegende Arbeit verfolgt das Ziel, einen Beitrag zur stetigen Verbesserung und Sicherung der Qualität der Lehrerausbildung an der Universität Potsdam zu leisten, und stellt die Frage: Über welches fachwissenschaftliche und fachdidaktische Wissen verfügen die Lehramtsstudierenden im Fach Mathematik nach Besuch der Lehrveranstaltung Arithmetik und ihre Didaktik I und II? Untersucht wurde exemplarisch das Wissen der Lehramtsstudierenden im Bereich der rationalen Zahlen mit dem Fokus auf dem Verständnis der Dichte von Bruchzahlen. Die Dichte stellt eines der am schwierigsten zu erwerbenden Konzepte im Bruchzahlerwerb dar und fordert ein konzeptionelles Umdenken sowie die Reorganisation bereits erworbener Vorstellungen. Um die Forschungsfrage zu beantworten, wurden in einer qualitativen Studie 112 Lehramtsstudierende hinsichtlich ihres Wissens zu dem Thema Dichte von rationalen Zahlen schriftlich getestet. Um Denkprozesse der Studierenden zu verstehen und Denkhürden zu identifizieren, wurden zusätzlich qualitative Interviews in Form von Gruppendiskussionen geführt. Die Daten wurden mithilfe der Qualitativen Inhaltsanalyse computergestützt ausgewertet.
Es zeigte sich eine große Bandbreite verschiedener Wissensbestände. Die Ergebnisse im fachdidaktischen Wissen blieben hinter den Ergebnissen im fachwissenschaftlichen Wissen zurück. Am schwierigsten fiel den Studierenden die Gegenüberstellung von wesentlichen Eigenschaften der rationalen und natürlichen Zahlen auf der metakognitiven Ebene. Neben positiven Ergebnissen, welche für die Effektivität der Konzeption der Lehrveranstaltung sprechen, zeigten sich diverse Denkhürden. Defizite im Fachwissen wie ein mangelndes Verständnis von äquivalenten Brüchen oder Fehler im Erweitern von Brüchen enthüllen unzulänglich ausgebildete Grundvorstellungen im Bereich der rationalen Zahlen seitens der Studierenden. Schwierigkeiten in den fachdidaktischen Aufgaben wie die Formulierung einer kindgerechten Erklärung oder die anschauliche Darstellung des mathematischen Inhalts auf bildlicher Ebene lassen sich ursächlich auf die Defizite im Fachwissen zurückführen. Zusätzlich stellten sich Einschränkungen seitens der Studierenden in der Motivation und Relevanzzuschreibung heraus.
Die Ergebnisse führen zu gezielten Änderungsvorschlägen bezüglich der Konzeption der Lehrveranstaltung. Es wird empfohlen, verschiedene Lernangebote wie Hausaufgaben und wöchentliche Selbsttests zur individuellen Lernzielkontrolle für alle Teilnehmenden der Lehrveranstaltung verpflichtend zu gestalten und motivationale Aspekte verstärkt aufzugreifen. Zusätzlich wird der Ausbau von konkreten Übungen auf der enaktiven Ebene empfohlen, um den Aufbau von notwendigen Grundvorstellungen im Bereich der rationalen Zahlen zu fördern und somit Denkhürden gezielt zu begegnen.
Frühe mathematische Bildung
(2018)
Im vorliegenden Beitrag werden aktuelle Forschungstrends im Bereich der frühen mathematischen Bildung im Kontext jüngst formulierter Zieldimensionen für die frühe mathematische Bildung (siehe Benz et al., 2017) dargestellt. Es wird auf spielbasierte Fördermaßnahmen, Kompetenzen im Bereich „Raum und Form“, den Einfluss sprachlicher Parameter auf die Entwicklung mathematischer Kompetenzen sowie auf mathematikbezogene Kompetenzen frühpädagogischer Fachkräfte eingegangen. Darüber hinaus werden die Ergebnisse einer aktuellen Feldstudie zur Förderung früher mathematischer Kompetenzen (siehe Dillon, Kannan, Dean, Spelke & Duflo, 2017) vorgestellt. Abschließend wird die Entwicklung und Implementierung anschlussfähiger Bildungskonzepte als eine der zentralen Herausforderungen zukünftiger Forschungs- und Bildungsbemühungen diskutiert
Die Bienaymé-Galton-Watson Prozesse können für die Untersuchung von speziellen und sich entwickelnden Populationen verwendet werden. Die Populationen umfassen Individuen, welche sich identisch, zufällig, selbstständig und unabhängig voneinander fortpflanzen und die jeweils nur eine Generation existieren. Die n-te Generation ergibt sich als zufällige Summe der Individuen der (n-1)-ten Generation. Die Relevanz dieser Prozesse begründet sich innerhalb der Historie und der inner- und außermathematischen Bedeutung. Die Geschichte der Bienaymé-Galton-Watson-Prozesse wird anhand der Entwicklung des Konzeptes bis heute dargestellt. Dabei werden die Wissenschaftler:innen verschiedener Disziplinen angeführt, die Erkenntnisse zu dem Themengebiet beigetragen und das Konzept in ihren Fachbereichen angeführt haben. Somit ergibt sich die außermathematische Signifikanz. Des Weiteren erhält man die innermathematische Bedeutsamkeit mittels des Konzeptes der Verzweigungsprozesse, welches auf die Bienaymé-Galton-Watson Prozesse zurückzuführen ist. Die Verzweigungsprozesse stellen eines der aussagekräftigsten Modelle für die Beschreibung des Populationswachstums dar. Darüber hinaus besteht die derzeitige Wichtigkeit durch die Anwendungsmöglichkeit der Verzweigungsprozesse und der Bienaymé-Galton-Watson Prozesse innerhalb der Epidemiologie. Es werden die Ebola- und die Corona-Pandemie als Anwendungsfelder angeführt. Die Prozesse dienen als Entscheidungsstütze für die Politik und ermöglichen Aussagen über die Auswirkungen von Maßnahmen bezüglich der Pandemien. Neben den Prozessen werden ebenfalls der bedingte Erwartungswert bezüglich diskreter Zufallsvariablen, die wahrscheinlichkeitserzeugende Funktion und die zufällige Summe eingeführt. Die Konzepte vereinfachen die Beschreibung der Prozesse und bilden somit die Grundlage der Betrachtungen. Außerdem werden die benötigten und weiterführenden Eigenschaften der grundlegenden Themengebiete und der Prozesse aufgeführt und bewiesen. Das Kapitel erreicht seinen Höhepunkt bei dem Beweis des Kritikalitätstheorems, wodurch eine Aussage über das Aussterben des Prozesses in verschiedenen Fällen und somit über die Aussterbewahrscheinlichkeit getätigt werden kann. Die Fälle werden anhand der zu erwartenden Anzahl an Nachkommen eines Individuums unterschieden. Es zeigt sich, dass ein Prozess bei einer zu erwartenden Anzahl kleiner gleich Eins mit Sicherheit ausstirbt und bei einer Anzahl größer als Eins, die Population nicht in jedem Fall aussterben muss. Danach werden einzelne Beispiele, wie der linear fractional case, die Population von Fibroblasten (Bindegewebszellen) von Mäusen und die Entstehungsfragestellung der Prozesse, angeführt. Diese werden mithilfe der erlangten Ergebnisse untersucht und einige ausgewählte zufällige Dynamiken werden im nachfolgenden Kapitel simuliert. Die Simulationen erfolgen durch ein in Python erstelltes Programm und werden mithilfe der Inversionsmethode realisiert. Die Simulationen stellen beispielhaft die Entwicklungen in den verschiedenen Kritikalitätsfällen der Prozesse dar. Zudem werden die Häufigkeiten der einzelnen Populationsgrößen in Form von Histogrammen angebracht. Dabei lässt sich der Unterschied zwischen den einzelnen Fällen bestätigen und es wird die Anwendungsmöglichkeit der Bienaymé-Galton-Watson Prozesse bei komplexeren Problemen deutlich. Histogramme bekräftigen, dass die einzelnen Populationsgrößen nur endlich oft vorkommen. Diese Aussage wurde von Galton aufgeworfen und in der Extinktions-Explosions-Dichotomie verwendet. Die dargestellten Erkenntnisse über das Themengebiet und die Betrachtung des Konzeptes werden mit einer didaktischen Analyse abgeschlossen. Die Untersuchung beinhaltet die Berücksichtigung der Fundamentalen Ideen, der Fundamentalen Ideen der Stochastik und der Leitidee „Daten und Zufall“. Dabei ergibt sich, dass in Abhängigkeit der gewählten Perspektive die Anwendung der Bienaymé-Galton-Watson Prozesse innerhalb der Schule plausibel ist und von Vorteil für die Schüler:innen sein kann. Für die Behandlung wird exemplarisch der Rahmenlehrplan für Berlin und Brandenburg analysiert und mit dem Kernlehrplan Nordrhein-Westfalens verglichen. Die Konzeption des Lehrplans aus Berlin und Brandenburg lässt nicht den Schluss zu, dass die Bienaymé-Galton-Watson Prozesse angewendet werden sollten. Es lässt sich feststellen, dass die zugrunde liegende Leitidee nicht vollumfänglich mit manchen Fundamentalen Ideen der Stochastik vereinbar ist. Somit würde eine Modifikation hinsichtlich einer stärkeren Orientierung des Lehrplans an den Fundamentalen Ideen die Anwendung der Prozesse ermöglichen. Die Aussage wird durch die Betrachtung und Übertragung eines nordrhein-westfälischen Unterrichtsentwurfes für stochastische Prozesse auf die Bienaymé-Galton-Watson Prozesse unterstützt. Darüber hinaus werden eine Concept Map und ein Vernetzungspentagraph nach von der Bank konzipiert um diesen Aspekt hervorzuheben.
Spiele und spieltypische Elemente wie das Sammeln von Treuepunkten sind aus dem Alltag kaum wegzudenken. Zudem werden sie zunehmend in Unternehmen oder in Lernumgebungen eingesetzt. Allerdings ist die Methode Gamification bisher für den pädagogischen Kontext wenig klassifiziert und für Lehrende kaum zugänglich gemacht worden.
Daher zielt diese Bachelorarbeit darauf ab, eine systematische Strukturierung und Aufarbeitung von Gamification sowie innovative Ansätze für die Verwendung spieltypischer Elemente im Unterricht, konkret dem Mathematikunterricht, zu präsentieren. Dies kann eine Grundlage für andere Fachgebiete, aber auch andere Lehrformen bieten und so die Umsetzbarkeit von Gamification in eigenen Lehrveranstaltungen aufzeigen.
In der Arbeit wird begründet, weshalb und mithilfe welcher Elemente Gamification die Motivation und Leistungsbereitschaft der Lernenden langfristig erhöhen, die Sozial- und Personalkompetenzen fördern sowie die Lernenden zu mehr Aktivität anregen kann. Zudem wird Gamification explizit mit grundlegenden mathematikdidaktischen Prinzipien in Verbindung gesetzt und somit die Relevanz für den Mathematikunterricht hervorgehoben.
Anschließend werden die einzelnen Elemente von Gamification wie Punkte, Level, Abzeichen, Charaktere und Rahmengeschichte entlang einer eigens für den pädagogischen Kontext entwickelten Klassifikation „FUN“ (Feedback – User specific elements – Neutral elements) schematisch beschrieben, ihre Funktionen und Wirkung dargestellt sowie Einsatzmöglichkeiten im Unterricht aufgezeigt. Dies beinhaltet Ideen zu lernförderlichem Feedback, Differenzierungsmöglichkeiten und Unterrichtsrahmengestaltung, die in Lehrveranstaltungen aller Art umsetzbar sein können. Die Bachelorarbeit umfasst zudem ein spezifisches Beispiel, einen Unterrichtsentwurf einer gamifizierten Mathematikstunde inklusive des zugehörigen Arbeitsmaterials, anhand dessen die Verwendung von Gamification deutlich wird.
Gamification offeriert oftmals Vorteile gegenüber dem traditionellen Unterricht, muss jedoch wie jede Methode an den Inhalt und die Zielgruppe angepasst werden. Weiterführende Forschung könnte sich mit konkreten motivationalen Strukturen, personenspezifischen Unterschieden sowie mit mathematischen Inhalten wie dem Problemlösen oder dem Wechsel zwischen verschiedenen Darstellungen hinsichtlich gamifizierter Lehrformen beschäftigen.
Im Zuge der Covid-19 Pandemie werden zwei Werte täglich diskutiert: Die zuletzt gemeldete Zahl der neu Infizierten und die sogenannte Reproduktionsrate. Sie gibt wieder, wie viele weitere Menschen ein an Corona erkranktes Individuum im Durchschnitt ansteckt. Für die Schätzung dieses Wertes gibt es viele Möglichkeiten - auch das Robert Koch-Institut gibt in seinem täglichen Situationsbericht stets zwei R-Werte an: Einen 4-Tage-R-Wert und einen weniger schwankenden 7-Tage-R-Wert. Diese Arbeit soll eine weitere Möglichkeit vorstellen, einige Aspekte der Pandemie zu modellieren und die Reproduktionsrate zu schätzen.
In der ersten Hälfte der Arbeit werden die mathematischen Grundlagen vorgestellt, die man für die Modellierung benötigt. Hierbei wird davon ausgegangen, dass der Leser bereits ein Basisverständnis von stochastischen Prozessen hat. Im Abschnitt Grundlagen werden Verzweigungsprozesse mit einigen Beispielen eingeführt und die Ergebnisse aus diesem Themengebiet, die für diese Arbeit wichtig sind, präsentiert. Dabei gehen wir zuerst auf einfache Verzweigungsprozesse ein und erweitern diese dann auf Verzweigungsprozesse mit mehreren Typen. Um die Notation zu erleichtern, beschränken wir uns auf zwei Typen. Das Prinzip lässt sich aber auf eine beliebige Anzahl von Typen erweitern.
Vor allem soll die Wichtigkeit des Parameters λ herausgestellt werden. Dieser Wert kann als durchschnittliche Zahl von Nachfahren eines Individuums interpretiert werden und bestimmt die Dynamik des Prozesses über einen längeren Zeitraum. In der Anwendung auf die Pandemie hat der Parameter λ die gleiche Rolle wie die Reproduktionsrate R.
In der zweiten Hälfte dieser Arbeit stellen wir eine Anwendung der Theorie über Multitype Verzweigungsprozesse vor. Professor Yanev und seine Mitarbeiter modellieren in ihrer Veröffentlichung Branching stochastic processes as models of Covid-19 epidemic development die Ausbreitung des Corona Virus' über einen Verzweigungsprozess mit zwei Typen. Wir werden dieses Modell diskutieren und Schätzer daraus ableiten: Ziel ist es, die Reproduktionsrate zu ermitteln. Außerdem analysieren wir die Möglichkeiten, die Dunkelziffer (die Zahl nicht gemeldeter Krankheitsfälle) zu schätzen. Wir wenden die Schätzer auf die Zahlen von Deutschland an und werten diese schließlich aus.
Packungen aus Kreisscheiben
(2019)
Der englische Seefahrer Sir Walter Raleigh fragte sich einst, wie er in seinem Schiffsladeraum moeglichst viele Kanonenkugeln stapeln koennte. Johannes Kepler entwickelte daraufhin 1611 eine Vermutung ueber die optimale Anordnung der Kugeln. Diese Vermutung sollte sich als eine der haertesten mathematischen Nuesse der Geschichte erweisen. Selbst in der Ebene sind dichteste Packungen kongruenter Kreise eine Herausforderung. 1892 und 1910 veroeffentlichte Axel Thue (kritisierte) Beweise, dass die hexagonale Kreispackung optimal sei. Erst 1940 lieferte Laszlo Fejes Toth schliesslich einen wasserdichten Beweis fuer diese Tatsache. Eine Variante des Problems verlangt,
Packungen mit endlich vielen kongruenten Kugeln zu finden, die eine gewisse quadratische Energie minimieren: Diese spannende geometrische Aufgabe wurde 1967 von Toth gestellt. Sie ist auch heute noch nicht vollstaendig gelaest. In diesem Beitrag schlagen die Autorinnen eine originelle wahrscheinlichkeitstheoretische Methode vor, um in der Ebene Näherungen der Lösung zu konstruieren.
Die Vielfältigkeit des Winkelbegriffs ist gleichermaßen spannend wie herausfordernd in Hinblick auf seine Zugänge im Mathematikunterricht der Schule. Ausgehend von verschiedenen Vorstellungen zum Winkelbegriff wird in dieser Arbeit ein Lehrgang zur Vermittlung des Winkelbegriffs entwickelt und letztlich in konkrete Umsetzungen für den Schulunterricht überführt.
Dabei erfolgt zunächst eine stoffdidaktische Auseinandersetzung mit dem Winkelbegriff, die von einer informationstheoretischen Winkeldefinition begleitet wird. In dieser wird eine Definition für den Winkelbegriff unter der Fragestellung entwickelt, welche Informationen man über einen Winkel benötigt, um ihn beschreiben zu können. So können die in der fachdidaktischen Literatur auftretenden Winkelvorstellungen aus fachmathematischer Perspektive erneut abgeleitet und validiert werden. Parallel dazu wird ein Verfahren beschrieben, wie Winkel – auch unter dynamischen Aspekten – informationstechnisch verarbeitet werden können, so dass Schlussfolgerungen aus der informationstheoretischen Winkeldefinition beispielsweise in dynamischen Geometriesystemen zur Verfügung stehen.
Unter dem Gesichtspunkt, wie eine Abstraktion des Winkelbegriffs im Mathematikunterricht vonstatten gehen kann, werden die Grundvorstellungsidee sowie die Lehrstrategie des Aufsteigens vom Abstrakten zum Konkreten miteinander in Beziehung gesetzt. Aus der Verknüpfung der beiden Theorien wird ein grundsätzlicher Weg abgeleitet, wie im Rahmen der Lehrstrategie eine Ausgangsabstraktion zu einzelnen Winkelaspekten aufgebaut werden kann, was die Generierung von Grundvorstellungen zu den Bestandteilen des jeweiligen Winkelaspekts und zum Operieren mit diesen Begriffsbestandteilen ermöglichen soll. Hierfür wird die Lehrstrategie angepasst, um insbesondere den Übergang von Winkelsituationen zu Winkelkontexten zu realisieren. Explizit für den Aspekt des Winkelfeldes werden, anhand der Untersuchung der Sichtfelder von Tieren, Lernhandlungen und Forderungen an ein Lernmodell beschrieben, die Schülerinnen und Schüler bei der Begriffsaneignung unterstützen.
Die Tätigkeitstheorie, der die genannte Lehrstrategie zuzuordnen ist, zieht sich als roter Faden durch die weitere Arbeit, wenn nun theoriebasiert Designprinzipien generiert werden, die in die Entwicklung einer interaktiven Lernumgebung münden. Hierzu wird u. a. das Modell der Artifact-Centric Activity Theory genutzt, das das Beziehungsgefüge aus Schülerinnen und Schülern, dem mathematischen Gegenstand und einer zu entwickelnden App als vermittelndes Medium beschreibt, wobei der Einsatz der App im Unterrichtskontext sowie deren regelgeleitete Entwicklung Bestandteil des Modells sind. Gemäß dem Ansatz der Fachdidaktischen Entwicklungsforschung wird die Lernumgebung anschließend in mehreren Zyklen erprobt, evaluiert und überarbeitet. Dabei wird ein qualitatives Setting angewandt, das sich der Semiotischen Vermittlung bedient und untersucht, inwiefern sich die Qualität der von den Schülerinnen und Schülern gezeigten Lernhandlungen durch die Designprinzipien und deren Umsetzung erklären lässt. Am Ende der Arbeit stehen eine finale Version der Designprinzipien und eine sich daraus ergebende Lernumgebung zur Einführung des Winkelfeldbegriffs in der vierten Klassenstufe.
Entdeckendes Lernen
(2017)
Trotz der nachweislichen Popularität des Entdeckenden Lernens in der deutschsprachigen Mathematikdidaktik finden sich aktuell keine kritischen Beiträge, die dazu beitragen könnten, dieses grundlegende Unterrichtskonzept zu hinterfragen und auszuschärfen. In diesem Diskussionsbeitrag werden zunächst die Theorie und einige Umsetzungsbeispiele des Entdeckenden Lernens herausgearbeitet, um aufzuzeigen, dass das Entdeckende Lernen einem vagen Sammelbegriff gleicht, unter dem oft fragwürdige Unterrichtsumgebungen legitimiert werden. Anschließend werden an Hand erkenntnistheoretischer, lerntheoretischer, didaktischer und soziokultureller Betrachtungen Probleme des Entdeckenden Lernens im Mathematikunterricht und Möglichkeiten ihrer Überwindung thematisiert. Dabei zeigt sich, dass die Konzeption des Entdeckenden Lernens hinter dem aktuellen mathematikdidaktischen Erkenntnisstand zurückfällt und Lehrer sowie Schüler mit unmöglichen Forderungen konfrontiert, dass lerntheoretische Vorteile des Entdeckenden Lernens oft nicht nachweisbar sind, dass die Idee des Entdeckens auf einem problematischen platonistischen Verständnis von Erkenntnis beruht und dass Entdeckendes Lernen bildungsferne Schüler zu benachteiligen droht. Abschließend werden Forschungsdesiderata abgeleitet, deren Bearbeitung dazu beitragen könnte, die aufgezeigten Problemfelder zu überwinden.
In 2015 the second conference „Cloud Storage Deployment in Academics“ took place. Interest regarding this issue was again high and topics established in 2014 like data security and scalability were complemented by new ones like federations or technical integration in existing infrastructures. This is caused by the advances in the establishment of cloud-based storage systems. This publication contains the contributions of the conference „Cloud Storage Deployment in Academics 2015“, which took place in may 2015 at TU Berlin.
Neue Medien“ war über viele Jahre hinweg das Codewort für Computer, die den Einzug in den Schulunterricht schaffen sollten – wenn es nach den Befürwortern ging. Die Widerstände, gerade in der Grundschule, waren groß und vielfältig. Es ist verständlich, dass kurz nach der spielerischen Heranführung an Bildung im Kindergarten, in einer Zeit, in der die Schülerinnen und Schüler auch das soziale Miteinander einüben müssen und auch fein- und grobmotorische Fähigkeiten erwerben sollen, das vereinzelnde Sitzen vor einem Bildschirm nicht zu den obersten Prioritäten gehört – und auch unserer Meinung nach nicht gehören sollte. In den letzten Jahren hat sich der Begriff der neuen Medien aber verändert, und das, was bisher damit verbunden wurde, ist mit der „Digitalisierung“ nicht nur des Schulunterrichts, sondern des ganzen Lebens, zu einem Dreh- und Angelpunkt der Bildung geworden. Statt klobigen Computern mit Bildschirmen, die das Miteinander schon über die Ausstattung der Computerräume in die falsche Bahn lenken, haben mobile Geräte in der Hand der Schülerinnen und Schüler übernommen. Diese können nun gemeinsam an einem Gerät arbeiten, sie können direkt mit den Bildschirminhalten interagieren, sie können die Kameras, Mikrophone und Sensoren nutzen, um authentische Daten zu erfassen und zu verarbeiten, sie können auch außerhalb des Klassenraums oder der Schule damit arbeiten und haben inzwischen fast jederzeit das ganze Wissen des Internets mit dabei. Schwerpunkt dieses Bandes ist daher der Umgang mit Tablets und den darauf laufenden „Apps“ im Mathematikunterricht. In fünf Beiträgen werden konkrete Unterrichtsvorschläge gemacht, die als Blaupausen für App-gestützten Unterricht dienen können. Ergänzt wird dieser Band durch einen allgemeinen Leitfaden zur Beurteilung von Apps für den Mathematikunterricht samt Beispielen.
Raum und Form
(2017)
Kreise - Punkte - Linien
(2015)
Zum Geleit
(2015)
Einführung
(2015)
Die nun begonnene Reihe „studieren++“ resultiert aus einer von der Universität Potsdam angebotenen Vorlesungsreihe. Das Besondere an dieser Vorlesungsreihe ist der multidisziplinäre Anspruch und die konsequent umgesetzte Zusammenarbeit über Disziplingrenzen hinweg. Die nicht nur über Instituts-, sondern über Fakultätsgrenzen praktizierte Interdisziplinarität erlaubt die Betrachtung eines Problems oder Sachverhalts aus unterschiedlichen Blickwinkeln. Wissenschaftliche Fragestellungen sind komplex und nicht immer auf eine Disziplin beschränkt. Sie in ihrer Gänze erfassen und nachhaltige Lösungsstrategien oder Konzepte entwickeln zu können gelingt oft nur durch eine multidisziplinäre Kooperation. Eine Lehrveranstaltung wie die vorliegende ist nicht nur für die Studierenden einer Universität eine hervorragende Möglichkeit, um über die Grenzen der eigenen Disziplin hinaus zu blicken und die Zusammenarbeit mit Wissenschaftlerinnen und Wissenschaftlern aus anderen Bereichen zu pflegen. So lernt man, sich in andere Sichtweisen hineinzuversetzen und sich zwischen den Disziplinen zu bewegen – eine Kompetenz, die in der hochkomplexen Arbeitswelt von heute von hohem Nutzen ist.
Der vorliegende erste Band der Reihe hat „Raum und Zahl“ zum Thema und ist aus einer Ringvorlesung aus dem Wintersemester 2013/2014 entstanden. Drei der fünf Fakultäten, insgesamt neun Institute der Universität Potsdam, haben sich an der Vorlesung beteiligt und sich dieses spannenden Themas angenommen. Als jemand, der sich jahrelang wissenschaftlich mit algorithmischer Geometrie sowie mit raumbezogenen Datenbanken und Navigationssystemen beschäftigt hat, kann ich nur bekräftigen, dass die Bezüge zwischen Raum und Zahl, zwischen Räumen und Zahlen, noch viel stärker im öffentlichen Bewusstsein verankert gehören. Räume auch quantitativ zu erfassen und zu verstehen ist eine Kulturtechnik, die an Wichtigkeit eher noch zunimmt, vor allem vor dem Hintergrund, dass wir genetisch nicht allzu gut auf derartige Herausforderungen vorbereitet sind. Denn viele unserer einschlägigen Gene entstammen noch aus der Zeit der Savanne, einer Zeit, zu der das Raumkonzept sich fast ausschließlich auf die unmittelbare räumliche Umgebung bezog und Zahlen jenseits von 10 nur wenig Relevanz für das eigene Überleben hatten.
Als Präsident der Universität Potsdam freut es mich ganz besonders, dass sich die hier vertretenen Wissenschaftler bereit erklärt haben, ihre Überlegungen mit den Studierenden und ihren Kolleginnen und Kollegen zu teilen. Herrn Kollegen Hans-Joachim Petsche möchte ich für sein Engagement danken und ihm zu dieser gelungenen Reihe gratulieren. Der Geist der Wissenschaft, der nicht nur einsam im Büro oder Labor gelebt wird, sondern gerade an einer Universität auch aktiv nach außen getragen werden sollte, wird hier in besonderer Weise sichtbar. Ich wünsche Ihnen viel Freude bei der Lektüre des Bandes und freue mich auf weitere Veröffentlichungen in dieser Reihe.
Das Schulbuch ist ein etablierter und bedeutender Bestandteil des Mathematikunterrichts. Lehrer nutzen es, um ihren Unterricht vorzubereiten und/oder zu gestalten; Schüler, um in selbigem zu lernen und zu bestehen, vielleicht sogar aus eigenem Interesse; Eltern, um sich darüber zu informieren, was ihr Kind eigentlich können soll und wie sie ihm gegebenenfalls helfen können. Darüber hinaus ist das Schulbuch ein markantes gesellschaftliches Produkt, dessen Zweck es ist, das Unterrichtsgeschehen zu steuern und zu beeinflussen. Damit ist es auch ein Anzeiger dafür, was und wie im Mathematikunterricht gelehrt werden sollte und wird. Die Lehrtexte als zentrale Bestandteile von Schulbüchern verweisen in diesem Zusammenhang insbesondere auf die Phasen der Einführung neuen Lernstoffs. Daraus legitimiert sich übergreifend die Fragestellung, was und wie (gut) Mathematikschulbuchlehrtexte lehren bzw. was und wie (gut) adressierte Schüler aus ihnen (selbstständig) lernen, d.h. Wissen erwerben können.
Angesichts der komplexen und vielfältigen Bedeutung von Schulbuchlehrtexten verwundert es, dass die mathematikdidaktische Forschung bislang wenig Interesse an ihnen zeigt: Es fehlen sowohl eine theoretische Konzeption der Größe ‚Lehrpotential eines schulmathematischen Lehrtextes‘ als auch ein analytisches Verfahren, um das anhand eines Mathematikschulbuchlehrtextes Verstehbare und Lernbare zu ermitteln. Mit der vorliegenden Arbeit wird sowohl in theoretisch-methodologischer als auch in empirischer Hinsicht der Versuch unternommen, diesen Defiziten zu begegnen. Dabei wird das ‚Lehrpotential eines Mathematikschulbuchlehrtextes‘ auf der Grundlage der kognitionspsychologischen Schematheorie und unter Einbeziehung textlinguistischer Ansätze als eine textimmanente und analytisch zugängliche Größe konzipiert. Anschließend wird das Lehrpotential von fünf Lehrtexten ausgewählter aktueller Schulbücher der Jahrgangsstufen 6 und 7 zu den Inhaltsbereichen ‚Brüche‘ und ‚lineare Funktionen‘ analysiert. Es zeigt sich, dass die untersuchten Lehrtexte aus deutschen Schulbüchern für Schüler sehr schwer verständlich sind, d.h. es ist kompliziert, einigen Teiltexten im Rahmen des Gesamttextes einen Sinn abzugewinnen. Die Lehrtexte sind insbesondere dann kaum sinnhaft lesbar, wenn ein Schüler versucht, die mitgeteilten Sachverhalte zu verstehen, d.h. Antworten auf die Fragen zu erhalten, warum ein mathematischer Sachverhalt gerade so und nicht anders ist, wozu ein neuer Sachverhalt/Begriff gebraucht wird, wie das Neue mit bereits Bekanntem zusammenhängt usw. Deutlich zugänglicher und sinnhafter erscheinen die Mathematikschulbuchlehrtexte hingegen unter der Annahme, dass ihre zentrale Botschaft in der Mitteilung besteht, welche Aufgabenstellungen in der jeweiligen Lehreinheit vorkommen und wie man sie bearbeitet. Demnach können Schüler anhand dieser Lehrtexte im Wesentlichen lernen, wie sie mit mathematischen Zeichen, die für sie kaum etwas bezeichnen, umgehen sollen. Die hier vorgelegten Analyseergebnisse gewinnen in einem soziologischen Kontext an Tragweite und Brisanz. So lässt sich aus ihnen u.a. die These ableiten, dass die analysierten Lehrtexte keine ‚unglücklichen‘ Einzelfälle sind, sondern dass die ‚Aufgabenorientierung in einem mathematischen Gewand‘ ein Charakteristikum typischer (deutscher) Mathematikschulbuchlehrtexte und – noch grundsätzlicher – einen Wesenszug typischer schulmathematischer Kommunikation darstellt.
Aus dem Inhalt: Inhaltsverzeichnis Abbildungsverzeichnis Tabellenverzeichnis 1 Einleitung und Motivation 2 Multivariate Copulafunktionen 2.1 Einleitung 2.2 Satz von Sklar 2.3 Eigenschaften von Copulafunktionen 3 Abhängigkeitskonzepte 3.1 Lineare Korrelation 3.2 Copulabasierte Abhängigkeitsmaße 3.2.1 Konkordanz 3.2.2 Kendall’s und Spearman’s 3.2.3 Asymptotische Randabhängigkeit 4 Elliptische Copulaklasse 4.1 Sphärische und elliptische Verteilungen 4.2 Normal-Copula 4.3 t-Copula 5 Parametrische Schätzverfahren 5.1 Maximum-Likelihood-Methode 5.1.1 ExakteMaximum-Likelihood-Methode 5.1.2 2-stufige parametrische Maximum-Likelihood-Methode 5.1.3 2-stufige semiparametrische Maximum-Likelihood-Methode 5.2 Momentenmethode 5.3 Kendall’s -Momentenmethode 6 Parameterschätzungen für Normal- und t-Copula 6.1 Normal-Copula 6.1.1 Maximum-Likelihood-Methode 6.1.2 Momentenmethode 6.1.3 Kendall’s Momentenmethode 6.1.4 Spearman’s Momentenmethode 6.2 t-Copula 6.2.1 Verfahren 1 (exakte ML-Methode) 6.2.2 Verfahren 2 (2-stufige rekursive ML-Methode) 6.2.3 Verfahren 3 (2-stufige KM-ML-Methode) 6.2.4 Verfahren 4 (3-stufige M-ML-Methode) 7 Simulationen 7.1 Grundlagen 7.2 Parametrischer Fall 7.3 Nichtparametrischer Fall 7.4 Fazit A Programmausschnitt Literaturverzeichnis
Aus dem Inhalt: Einleitung und Zusammenfassung 1 Grundlagen der Lebensdaueranalyse 2 Systemzuverlässigkeit 3 Zensierung 4 Schätzen in nichtparametrischen Modellen 5 Schätzen in parametrischen Modellen 6 Konfidenzintervalle für Parameterschätzungen 7 Verteilung einer gemischten Population 8 Kurze Einführung: Lebensdauer und Belastung 9 Ausblick A R-Quellcode B Symbole und Abkürzungen
Harness-Prozesse
(2010)
Harness-Prozesse finden in der Forschung immer mehr Anwendung. Vor allem gewinnen Harness-Prozesse in stetiger Zeit an Bedeutung. Grundlegende Literatur zu diesem Thema ist allerdings wenig vorhanden. In der vorliegenden Arbeit wird die vorhandene Grundlagenliteratur zu Harness-Prozessen in diskreter und stetiger Zeit aufgearbeitet und Beweise ausgeführt, die bisher nur skizziert waren. Ziel dessen ist die Existenz einer Zerlegung von Harness-Prozessen über Z beziehungsweise R+ nachzuweisen.
Das Sammelbilderproblem
(2010)
Estimation and testing of distributions in metric spaces are well known. R.A. Fisher, J. Neyman, W. Cochran and M. Bartlett achieved essential results on the statistical analysis of categorical data. In the last 40 years many other statisticians found important results in this field. Often data sets contain categorical data, e.g. levels of factors or names. There does not exist any ordering or any distance between these categories. At each level there are measured some metric or categorical values. We introduce a new method of scaling based on statistical decisions. For this we define empirical probabilities for the original observations and find a class of distributions in a metric space where these empirical probabilities can be found as approximations for equivalently defined probabilities. With this method we identify probabilities connected with the categorical data and probabilities in metric spaces. Here we get a mapping from the levels of factors or names into points of a metric space. This mapping yields the scale for the categorical data. From the statistical point of view we use multivariate statistical methods, we calculate maximum likelihood estimations and compare different approaches for scaling.
We consider a class of infinite-dimensional diffusions where the interaction between the components is both spatial and temporal. We start the system from a Gibbs measure with finiterange uniformly bounded interaction. Under suitable conditions on the drift, we prove that there exists t0 > 0 such that the distribution at time t = t0 is a Gibbs measure with absolutely summable interaction. The main tool is a cluster expansion of both the initial interaction and certain time-reversed Girsanov factors coming from the dynamics.
Aus dem Inhalt: Einleitung Kapitel 1. Starke Gesetze der Grossen Zahlen 1. SGGZ unter Wachstumsbedingungen an die p-ten Momente 2. SGGZ für identisch verteilte Zufallsvariablen 3. SGGZ für Prozesse mit *-mixing-Eigenschaft Kapitel 2. Einführung zu diskreten (Sub-,Super-)Martingalen 1. Vorhersagbarkeit 2. gestoppte (Sub-,Super-)Martingale 3. Upcrossings 4. Konvergenzsätze 5. Doob-Zerlegung 6. Eine äquivalente Definition eines (Sub-)Martingals Kapitel 3. Martingale und gleichgradige Integrierbarkeit 1. Gleichmäßige(-f¨ormige,-gradige) Integrierbarkeit 2. gleichgradig integrierbare Martingale Kapitel 4. Martingale und das SGGZ Kapitel 5.”reversed“ (Sub-,Super-)Martingale 1. Konvergenzsätze Kapitel 6. (Sub-,Super-)Martingale mit gerichteter Indexmenge 1. Äquivalente Formulierung eines (Sub-)Martingals 2. Konvergenzsätze Kapitel 7. Quasimartingale,Amarts und Semiamarts 1. Konvergenzsätze 2. Riesz-Zerlegung 3. Doob-Zerlegung Kapitel 8. Amarts und das SGGZ Kapitel 9.”reversed“ Amarts und Semiamarts 1. Konvergenzsätze 2.”Aufwärts“- gegen ”Abwärts“-Adaptiertheit 3. Riesz-Zerlegung 4. Stabilitätsanalyse Kapitel 10. Amarts mit gerichteter Indexmenge 1. Konvergenzsätze 2. Riesz-Zerlegung Anhang A. zur Existenz einer Folge unabhängiger Zufallsvariablen B. Konvergenz
Aus dem Inhalt: 0.1 Danksagung 0.2 Einleitung 1 Allgemeines und Grundlagen 1.1 Die Brownsche Bewegung 2 Die Dualitätsformel des Wienermaßes 2.1 Wienermaß erfüllt Dualitätsformel 2.2 Dualitätsformel charakterisiert Wienermaß 3 Die diskrete Dualitätsformel der Irrfahrt 3.1 Verallgemeinerte symmetrische Irrfahrt erfüllt diskrete Dualitätsformel 3.2 Diskrete Dualitätsformel charakterisiert verallgemeinerte symmetrische Irrfahrt 4 Donskers Theorem und die Dualitätsformeln 4.1 Straffheit der renormierten stetigen Irrfahrt 4.2 Konvergenz der Irrfahrt 5 Anhang
Aus dem Inhalt: 1 Abraham Wald (1902-1950) 2 Einführung der Grundbegriffe. Einige technische bekannte Ergebnisse 2.1 Martingal und Doob-Ungleichung 2.2 Brownsche Bewegung und spezielle Martingale 2.3 Gleichgradige Integrierbarkeit von Prozessen 2.4 Gestopptes Martingal 2.5 Optionaler Stoppsatz von Doob 2.6 Lokales Martingal 2.7 Quadratische Variation 2.8 Die Dichte der ersten einseitigen Überschreitungszeit der Brown- schen Bewegung 2.9 Waldidentitäten für die Überschreitungszeiten der Brownschen Bewegung 3 Erste Waldidentität 3.1 Burkholder, Gundy und Davis Ungleichungen der gestoppten Brown- schen Bewegung 3.2 Erste Waldidentität für die Brownsche Bewegung 3.3 Verfeinerungen der ersten Waldidentität 3.4 Stärkere Verfeinerung der ersten Waldidentität für die Brown- schen Bewegung 3.5 Verfeinerung der ersten Waldidentität für spezielle Stoppzeiten der Brownschen Bewegung 3.6 Beispiele für lokale Martingale für die Verfeinerung der ersten Waldidentität 3.7 Überschreitungszeiten der Brownschen Bewegung für nichtlineare Schranken 4 Zweite Waldidentität 4.1 Zweite Waldidentität für die Brownsche Bewegung 4.2 Anwendungen der ersten und zweitenWaldidentität für die Brown- schen Bewegung 5 Dritte Waldidentität 5.1 Dritte Waldidentität für die Brownsche Bewegung 5.2 Verfeinerung der dritten Waldidentität 5.3 Eine wichtige Voraussetzung für die Verfeinerung der drittenWal- didentität 5.4 Verfeinerung der dritten Waldidentität für spezielle Stoppzeiten der Brownschen Bewegung 6 Waldidentitäten im Mehrdimensionalen 6.1 Erste Waldidentität im Mehrdimensionalen 6.2 Zweite Waldidentität im Mehrdimensionalen 6.3 Dritte Waldidentität im Mehrdimensionalen 7 Appendix
In diesem Beitrag wird der Zusammenhang zwischen Algebrodifferentialgleichungen (ADGL) und Vektorfeldern auf Mannigfaltigkeiten untersucht. Dazu wird zunächst der Begriff der regulären ADGL eingeführt, wobei unter eirter regulären ADGL eine ADGL verstanden wird, deren Lösungsmenge identisch mit der Lösungsmenge eines Vektorfeldes ist. Ausgehend von bekannten Aussagen über die Lösungsmenge eines Vektorfeldes werden analoge Aussagen für die Lösungsmenge einer regulären ADGL abgeleitet. Es wird eine Reduktionsmethode angegeben, die auf ein Kriterium für die Begularität einer ADGL und auf die Definition des Index einer nichtlinearen ADGL führt. Außerdem wird gezeigt, daß beliebige Vektorfelder durch reguläre ADGL so realisiert werden können, daß die Lösungsmenge des Vektorfeldes mit der der realisierenden ADGL identisch ist. Abschließend werden die für autonome ADGL gewonnenen Aussagen auf den Fall der nichtautonomen ADGL übertragen.
In this paper we consider the hypo-ellipticity of differential forms on a closed manifold.The main results show that there are some topological obstruct for the existence of the differential forms with hypoellipticity.
Die vorliegende Diplomarbeit beschäftigt sich mit zwei Aspekten der statistischen Eigenschaften von Clusterverfahren. Zum einen geht die Arbeit auf die Frage der Existenz von unterschiedlichen Clusteranalysemethoden zur Strukturfindung und deren unterschiedlichen Vorgehensweisen ein. Die Methode des Abstandes zwischen Mannigfaltigkeiten und die K-means Methode liefern ausgehend von gleichen Daten unterschiedliche Endclusterungen. Der zweite Teil dieser Arbeit beschäftigt sich näher mit den asymptotischen Eigenschaften des K-means Verfahrens. Hierbei ist die Menge der optimalen Clusterzentren konsistent. Bei Vergrößerung des Stichprobenumfangs gegen Unendlich konvergiert diese in Wahrscheinlichkeit gegen die Menge der Clusterzentren, die das Varianzkriterium minimiert. Ebenfalls konvergiert die Menge der optimalen Clusterzentren für n gegen Unendlich gegen eine Normalverteilung. Es hat sich dabei ergeben, dass die einzelnen Clusterzentren voneinander abhängen.
We formalize and analyze the notions of monotonicity and complete monotonicity for Markov Chains in continuous-time, taking values in a finite partially ordered set. Similarly to what happens in discrete-time, the two notions are not equivalent. However, we show that there are partially ordered sets for which monotonicity and complete monotonicity coincide in continuoustime but not in discrete-time.
"Considerons une particule mobile se mouvant aleatoirement sur la droite (ou sur un segment de droite). Supposons qu'il existe une probabilite F(x,y;s,t) bien definie pour que la particule se trouvant a l'instant s dans la position x se trouve a l'instant t (> s) a gauche de y, probabilite independante du mouvement anterieur de la particule...." Mit diesen Worten beginnt eines der berühmtesten mathematischen Manuskripte des letzten Jahrhunderts. Es stammt vom Soldaten Wolfgang Döblin, Sohn des deutschen Schriftstellers Alfred Döblin, und trägt den Titel "Sur l'equation de Kolmogoroff". Seine Veröffentlichung verbindet sich mit einer unglaublichen Geschichte. Wolfgang Döblin, stationiert mit seiner Einheit in den Ardennen im Winter 1939/1940, arbeitete an diesem Manuskript. Er entschloss sich, es als versiegeltes Manuskript an die Academie des Sciences in Paris zu schicken. Aber er kehrte nie aus diesem Krieg zurück. Sein Manuskript blieb 60 Jahre unter Verschluss im Archiv, und wurde erst im Jahre 2000 geöffnet. Wie weit Döblin damit seiner Zeit voraus war, wurde erkannt, nachdem es von Bernard Bru und Marc Yor ausgewertet worden war. Im ersten Satz umschreibt W. Döblin gleichzeitig das Programm des Manuskripts: "Wir betrachten ein bewegliches Teilchen, das sich zufällig auf der Geraden (oder einem Teil davon) bewegt." Er widmet sich damit der Aufgabe, die Fundamente eines Gebiets zu legen, das wir heute als stochastische Analysis bezeichnen.
Was misst TIMSS?
(2001)
Bei der Erstellung und Interpretation mathematischer Leistungstests steht die Frage, was eine Aufgabe mißt. Der Artikel stellt mit der strukturalen oder objektiven Hermeneutik eine Methode vor, mit der die verschiedenen Dimensionen der von einer Aufgabe erfassten Fähigkeiten herausgearbeitet werden können. Dabei werden fachliche Anforderungen, Irritationsmomente und das durch die Aufgabe transportierte Bild vom jeweiligen Fach ebenso erfasst wie Momente, die man eher als Testfähigkeit bezeichnen würde.Am Beispiel einer TIMSS-Aufgabe wird diskutiert, dass das von den Testerstellern benutzte theoretische Konstrukt kaum geeignet ist, nachhaltig zu beschreiben, was eine Aufgabe misst.
Als Grundlage vieler statistischer Verfahren wird der Prozess der Entstehung von Daten modelliert, um dann weitere Schätz- und Testverfahren anzuwenden. Diese Arbeit befasst sich mit der Frage, wie diese Spezifikation für parametrische Modelle selbst getestet werden kann. In Erweiterung bestehender Verfahren werden Tests mit festem Kern eingeführt und ihre asymptotischen Eigenschaften werden analysiert. Es wird gezeigt, dass die Bestimmung der kritischen Werte mit mehreren Stichprobenwiederholungsverfahren möglich ist. Von diesen ist eine neue Monte-Carlo-Approximation besonders wichtig, da sie die Komplexität der Berechnung deutlich verringern kann. Ein bedingter Kleinste-Quadrate-Schätzer für nichtlineare parametrische Modelle wird definiert und seine wesentlichen asymptotischen Eigenschaften werden hergeleitet. Sämtliche Versionen der Tests und alle neuen Konzepte wurden in Simulationsstudien untersucht, deren wichtigste Resultate präsentiert werden. Die praktische Anwendbarkeit der Testverfahren wird an einem Datensatz zur Produktwahl dargelegt, der mit multinomialen Logit-Modellen analysiert werden soll.