Refine
Year of publication
Document Type
- Article (110)
- Monograph/Edited Volume (73)
- Doctoral Thesis (25)
- Other (18)
- Preprint (8)
- Master's Thesis (4)
- Review (3)
- Bachelor Thesis (2)
- Part of a Book (2)
- Conference Proceeding (2)
Language
- German (248) (remove)
Is part of the Bibliography
- yes (248) (remove)
Keywords
- Mathematikunterricht (3)
- Corona (2)
- Mathematikdidaktik (2)
- Verzweigungsprozess (2)
- branching process (2)
- didactics of mathematics (2)
- ACAT (1)
- Activity Theory (1)
- Alfred Schütz (1)
- Angle (1)
Institute
- Institut für Mathematik (248) (remove)
Estimation and testing of distributions in metric spaces are well known. R.A. Fisher, J. Neyman, W. Cochran and M. Bartlett achieved essential results on the statistical analysis of categorical data. In the last 40 years many other statisticians found important results in this field. Often data sets contain categorical data, e.g. levels of factors or names. There does not exist any ordering or any distance between these categories. At each level there are measured some metric or categorical values. We introduce a new method of scaling based on statistical decisions. For this we define empirical probabilities for the original observations and find a class of distributions in a metric space where these empirical probabilities can be found as approximations for equivalently defined probabilities. With this method we identify probabilities connected with the categorical data and probabilities in metric spaces. Here we get a mapping from the levels of factors or names into points of a metric space. This mapping yields the scale for the categorical data. From the statistical point of view we use multivariate statistical methods, we calculate maximum likelihood estimations and compare different approaches for scaling.
Aus dem Inhalt: 0.1 Danksagung 0.2 Einleitung 1 Allgemeines und Grundlagen 1.1 Die Brownsche Bewegung 2 Die Dualitätsformel des Wienermaßes 2.1 Wienermaß erfüllt Dualitätsformel 2.2 Dualitätsformel charakterisiert Wienermaß 3 Die diskrete Dualitätsformel der Irrfahrt 3.1 Verallgemeinerte symmetrische Irrfahrt erfüllt diskrete Dualitätsformel 3.2 Diskrete Dualitätsformel charakterisiert verallgemeinerte symmetrische Irrfahrt 4 Donskers Theorem und die Dualitätsformeln 4.1 Straffheit der renormierten stetigen Irrfahrt 4.2 Konvergenz der Irrfahrt 5 Anhang
Aus dem Inhalt: 1 Abraham Wald (1902-1950) 2 Einführung der Grundbegriffe. Einige technische bekannte Ergebnisse 2.1 Martingal und Doob-Ungleichung 2.2 Brownsche Bewegung und spezielle Martingale 2.3 Gleichgradige Integrierbarkeit von Prozessen 2.4 Gestopptes Martingal 2.5 Optionaler Stoppsatz von Doob 2.6 Lokales Martingal 2.7 Quadratische Variation 2.8 Die Dichte der ersten einseitigen Überschreitungszeit der Brown- schen Bewegung 2.9 Waldidentitäten für die Überschreitungszeiten der Brownschen Bewegung 3 Erste Waldidentität 3.1 Burkholder, Gundy und Davis Ungleichungen der gestoppten Brown- schen Bewegung 3.2 Erste Waldidentität für die Brownsche Bewegung 3.3 Verfeinerungen der ersten Waldidentität 3.4 Stärkere Verfeinerung der ersten Waldidentität für die Brown- schen Bewegung 3.5 Verfeinerung der ersten Waldidentität für spezielle Stoppzeiten der Brownschen Bewegung 3.6 Beispiele für lokale Martingale für die Verfeinerung der ersten Waldidentität 3.7 Überschreitungszeiten der Brownschen Bewegung für nichtlineare Schranken 4 Zweite Waldidentität 4.1 Zweite Waldidentität für die Brownsche Bewegung 4.2 Anwendungen der ersten und zweitenWaldidentität für die Brown- schen Bewegung 5 Dritte Waldidentität 5.1 Dritte Waldidentität für die Brownsche Bewegung 5.2 Verfeinerung der dritten Waldidentität 5.3 Eine wichtige Voraussetzung für die Verfeinerung der drittenWal- didentität 5.4 Verfeinerung der dritten Waldidentität für spezielle Stoppzeiten der Brownschen Bewegung 6 Waldidentitäten im Mehrdimensionalen 6.1 Erste Waldidentität im Mehrdimensionalen 6.2 Zweite Waldidentität im Mehrdimensionalen 6.3 Dritte Waldidentität im Mehrdimensionalen 7 Appendix
Die vorliegende Diplomarbeit beschäftigt sich mit zwei Aspekten der statistischen Eigenschaften von Clusterverfahren. Zum einen geht die Arbeit auf die Frage der Existenz von unterschiedlichen Clusteranalysemethoden zur Strukturfindung und deren unterschiedlichen Vorgehensweisen ein. Die Methode des Abstandes zwischen Mannigfaltigkeiten und die K-means Methode liefern ausgehend von gleichen Daten unterschiedliche Endclusterungen. Der zweite Teil dieser Arbeit beschäftigt sich näher mit den asymptotischen Eigenschaften des K-means Verfahrens. Hierbei ist die Menge der optimalen Clusterzentren konsistent. Bei Vergrößerung des Stichprobenumfangs gegen Unendlich konvergiert diese in Wahrscheinlichkeit gegen die Menge der Clusterzentren, die das Varianzkriterium minimiert. Ebenfalls konvergiert die Menge der optimalen Clusterzentren für n gegen Unendlich gegen eine Normalverteilung. Es hat sich dabei ergeben, dass die einzelnen Clusterzentren voneinander abhängen.
We formalize and analyze the notions of monotonicity and complete monotonicity for Markov Chains in continuous-time, taking values in a finite partially ordered set. Similarly to what happens in discrete-time, the two notions are not equivalent. However, we show that there are partially ordered sets for which monotonicity and complete monotonicity coincide in continuoustime but not in discrete-time.
Was misst TIMSS?
(2001)
Bei der Erstellung und Interpretation mathematischer Leistungstests steht die Frage, was eine Aufgabe mißt. Der Artikel stellt mit der strukturalen oder objektiven Hermeneutik eine Methode vor, mit der die verschiedenen Dimensionen der von einer Aufgabe erfassten Fähigkeiten herausgearbeitet werden können. Dabei werden fachliche Anforderungen, Irritationsmomente und das durch die Aufgabe transportierte Bild vom jeweiligen Fach ebenso erfasst wie Momente, die man eher als Testfähigkeit bezeichnen würde.Am Beispiel einer TIMSS-Aufgabe wird diskutiert, dass das von den Testerstellern benutzte theoretische Konstrukt kaum geeignet ist, nachhaltig zu beschreiben, was eine Aufgabe misst.
Als Grundlage vieler statistischer Verfahren wird der Prozess der Entstehung von Daten modelliert, um dann weitere Schätz- und Testverfahren anzuwenden. Diese Arbeit befasst sich mit der Frage, wie diese Spezifikation für parametrische Modelle selbst getestet werden kann. In Erweiterung bestehender Verfahren werden Tests mit festem Kern eingeführt und ihre asymptotischen Eigenschaften werden analysiert. Es wird gezeigt, dass die Bestimmung der kritischen Werte mit mehreren Stichprobenwiederholungsverfahren möglich ist. Von diesen ist eine neue Monte-Carlo-Approximation besonders wichtig, da sie die Komplexität der Berechnung deutlich verringern kann. Ein bedingter Kleinste-Quadrate-Schätzer für nichtlineare parametrische Modelle wird definiert und seine wesentlichen asymptotischen Eigenschaften werden hergeleitet. Sämtliche Versionen der Tests und alle neuen Konzepte wurden in Simulationsstudien untersucht, deren wichtigste Resultate präsentiert werden. Die praktische Anwendbarkeit der Testverfahren wird an einem Datensatz zur Produktwahl dargelegt, der mit multinomialen Logit-Modellen analysiert werden soll.