Refine
Year of publication
Document Type
- Article (119)
- Monograph/Edited Volume (73)
- Doctoral Thesis (26)
- Other (18)
- Preprint (13)
- Master's Thesis (4)
- Review (3)
- Bachelor Thesis (2)
- Part of a Book (2)
- Conference Proceeding (2)
Language
- German (265) (remove)
Keywords
- Mathematikunterricht (3)
- Corona (2)
- Kompetenzen (2)
- Mathematikdidaktik (2)
- Teamarbeit (2)
- Verzweigungsprozess (2)
- branching process (2)
- didactics of mathematics (2)
- ACAT (1)
- Activity Theory (1)
- Alfred Schütz (1)
- Analyse (1)
- Andere Fachrichtungen (1)
- Angle (1)
- Audience Response System (1)
- Aufgabensammlung (1)
- Aussterbewahrscheinlichkeit (1)
- Beweisaufgaben (1)
- Bienaymé-Galton-Watson Prozess (1)
- Bienaymé-Galton-Watson process (1)
- Big Data (1)
- Blended Learning (1)
- Bruchzahlen (1)
- C-Test (1)
- COCOMO (1)
- Classroom Response System (1)
- Clicker (1)
- Cloud Computing (1)
- Clusteranalyse (1)
- Codeverständnis (1)
- Covid-19 (1)
- Data Literacy (1)
- Data Science (1)
- Degenerationsprozesse (1)
- Design Research (1)
- Digital Tools (1)
- Digitale Werkzeuge (1)
- Diophantine Approximation (1)
- Discovery learning (1)
- Disziplinierung (1)
- Doblin (1)
- Doeblin (1)
- Döblin (1)
- Empirische Untersuchung (1)
- Entdeckendes Lernen (1)
- Entstehungsfragestellung (1)
- Epistemologie (1)
- Epistemology (1)
- Explorative Datenanalyse (1)
- Feedback (1)
- Fertigkeiten (1)
- Fibroblasten (1)
- Form (1)
- Formale Sprachen und Automaten (1)
- Forschung (1)
- Foucault (1)
- Fremdverstehen (1)
- Frühförderung (1)
- Fundamentale Ideen (1)
- Gamification (1)
- Geometrische Reproduktionsverteilung (1)
- Gestaltungsprinzipien (1)
- Grenzwertsatz (1)
- Grundvorstellungen (1)
- Habitus (1)
- Hermeneutik (1)
- Historie der Verzweigungsprozesse (1)
- Hochschule (1)
- Hochschulkurse (1)
- Hochschullehre (1)
- Hypoellipticity (1)
- Informatik (1)
- Informatik für alle (1)
- Informationskompetenz (1)
- Inhalte (1)
- Inhaltsanalyse (1)
- Innovation (1)
- Inquiry-based learning (1)
- Instabilität des Prozesses (1)
- Integrability (1)
- K-Means Verfahren (1)
- Kollaboration (1)
- Kolmogorov-Gleichung (1)
- Kompetenzmessung (1)
- Konfidenzintervall (1)
- Kritikalitätstheorem (1)
- Learning theory (1)
- Lehre (1)
- Lehrevaluation (1)
- Lehrkräftebildung Mathematik (1)
- Lehrpotential (1)
- Lehrtext (1)
- Leistungstests (1)
- Leitidee „Daten und Zufall“ (1)
- Lernen (1)
- Lernspiele (1)
- Lerntheorie (1)
- Logik (1)
- Lückentext (1)
- Markov chains (1)
- Markov processes (1)
- Markov-Ketten (1)
- Mathematics Tasks (1)
- Mathematics textbooks (1)
- Mathematikaufgaben (1)
- Methode (1)
- Modellierung (1)
- Motivation (1)
- Objektive Hermeneutik (1)
- PISA (1)
- Personal Response System (1)
- Populationen (1)
- Professionswissen (1)
- Programmierausbildung (1)
- Projekte (1)
- Rahmenlehrplan (1)
- Re-Engineering (1)
- Rechnen (1)
- Reproduktionsrate (1)
- Resampling (1)
- Schulbuch (1)
- Simulation (1)
- Simulationsstudien (1)
- Sociolinguistics (1)
- Software Engineering (1)
- Softwareentwicklung (1)
- Soziolinguistik (1)
- Spezifikationstests (1)
- Spiel (1)
- Stochastik (1)
- Stochastische Analysis (1)
- Strukturverbesserung (1)
- Studiengänge (1)
- Studierendenperformance (1)
- Studium (1)
- TIMSS (1)
- Testfähigkeit (1)
- Tests (1)
- Textbook analysis (1)
- Textbook research (1)
- Theoretische Informatik (1)
- Tätigkeitstheorie (1)
- Unterrichtsmethode (1)
- Verknüpfung Fachwissenschaft und Fachdidaktik (1)
- Videostudie (1)
- Vincent (1)
- Wahrscheinlichkeitstheorie (1)
- Wahrscheinlichkeitsverteilung (1)
- Wartung von Lehrveranstaltungen (1)
- Wellengleichung (1)
- Winkel (1)
- Wissenschaftliches Arbeiten (1)
- Wolfgang (1)
- Yamabe problem (1)
- Yamabe-Problem (1)
- Zahlbereichserweiterung (1)
- Zahlerwerb (1)
- Zufallsvariable (1)
- alignment (1)
- aptitude tests (1)
- asymptotical normal distribution (1)
- asymptotische Normalverteilung (1)
- basic ideas ('Grundvorstellungen') (1)
- bedingter Erwartungswert (1)
- calculation (1)
- cluster analysis (1)
- collegial supervision (1)
- conditional expectation value (1)
- conditions of success (1)
- confidence interval (1)
- corona virus (1)
- coupling (1)
- criticality theorem (1)
- design elements (1)
- design research (1)
- duale IT-Ausbildung (1)
- dynamical system representation (1)
- e-Assessment (1)
- e-Learning (1)
- early mathematical education (1)
- exercise collection (1)
- extinction probability (1)
- feedback (1)
- fibroblasts (1)
- forschungsorientiertes Lernen (1)
- fractions (1)
- fundamental ideas (1)
- game (1)
- game-based (1)
- gamification (1)
- geometric reproduction distribution (1)
- global-hyperbolisch (1)
- globally hyperbolic (1)
- guiding idea “Daten und Zufall” (1)
- hermeneutics (1)
- history of branching processes (1)
- instability of the process (1)
- k-means clustering (1)
- kollegiale Supervision (1)
- learning (1)
- limit theorem (1)
- linear fractional case (1)
- linking of subject science and didactic (1)
- logic (1)
- mathematics education (1)
- method (1)
- modeling (1)
- monotone random (1)
- monotonicity conditions (1)
- motivation (1)
- negative Zahlen (1)
- negative numbers (1)
- nichtlineare Modelle (1)
- number (1)
- numerical extension (1)
- part-whole concept (1)
- partial ordering (1)
- populations (1)
- probability distribution (1)
- probability generating function (1)
- probability theory (1)
- professional knowledge (1)
- question of origin (1)
- random sum (1)
- random variable (1)
- rekonstruktive Fallanalyse (1)
- reproduction rate (1)
- simulation (1)
- socialisation (1)
- stochastics (1)
- target dimensions (1)
- teacher training mathematics (1)
- teaching (1)
- teaching methods (1)
- test ability (1)
- wahrscheinlichkeitserzeugende Funktion (1)
- wave equation (1)
- zufällige Summe (1)
Institute
- Institut für Mathematik (265) (remove)
Diskontinuierliche Bewegungsgruppen sind als Symmetriegruppen von gewissen Mustern intuitiv zu erfassen. Diskontinuität einer Bewegungsggruppe B wird hier mittels Punktorbits definiert. Im Rahmen der euklidischen Geometrie endlicher Dimension findet man als (untereinander äquivalente) charakterisierende Eigenschaften diskontinuierlicher Bewegungsgruppen z. B. die lokale Endlichkeit (LEO) der Orbits nach Hilbert und COHN/VOSSEN und die Isoliertheit der Punkte in Ihrem Orbit (IPO) nach L. FEJES TOTH. In früheren Arbeiten wurde von KLOTZEK gezeigt, dass durch LEO und IPO in jedem unendlich dimensionalen Hilbertraum verschiedene Klassen von Gruppen beschrieben werden, andererseits sind LEO und IPO in metrischen Räumen gleichwertig, in denen jede beschränkte Menge präkompakt ist. Die Frage ob solche Bedingungen stets äquivalent sind hat die spätere Einführung eines ganzen Systems von ähnlichen Bedingungen initiert; hinzu kam der Wunsch, über verallgemeinerte diskontinuierliche Bewegungsggruppen, die noch nicht "kontinuierlich" wirken, weitere Muster zu beschreiben (vgl. etwa GRÜNBAUM). Die schwächste der in diesem Zusammenhang diskutierten Bedingungen führt zu Gruppen, die einerseits keine im dreidimensionalen Raum dichtliegende Punktorbits erzeugen, andererseits aber in jeder Umgebung der Identität weitere nichtidentische Bewegungen enthalten. Die Bestimmung aller Raumgruppen dieses Typs ist Gegenstand der vorliegenden Arbeit. Während 194 der 230 bekannten Raumgruppen unter Wahrung von kB (kristallographischen Beschränkung) 285 derartige Verallgemeinerungen zulassen, können ohne kB sogar überabzählbar viele schwachsdikontinuierliche Gruppen beschrieben werden.
Zwei Jahrtausende wurde die Mathematik in der Sprache der Geometrie formuliert; bis ins 18. Jahrhundert wurde Geometrie synonym für Mathematik gebraucht. Auch wenn die Geometrie nicht mehr diese Stellung in der Mathematik besitzt und den Charakter einer Naturwissenschaft verloren hat, so hat sie seitdem doch wesentlich die Entwicklung der Mathematik und Naturwissenschaft beeinflusst, und ihre Sprache bewährt sich auch in Disziplinen, die sich in unserem Jahrhundert herausgebildet haben. Überzeugt von einer verkürzten Wiederholung der Wissenschaftsentwicklung in der Ontogenese der Erkenntnis der Welt, wird man speziell der Elementargeometrie stets einen gebührenden Platz einräumen, wird man immer, wenn nicht gar mit Liebhabern, so doch mit Interessenten an diesem Gegenstand rechnen können, insbesondere unter den aktiven Lehrern und den Lehramtskandidaten. In erster Linie wird ihnen die Lektüre dieses Buches empfohlen. Dabei stehen Phänomene zwar am Anfang, aber es geht vordergründig um begriffliche Präzisierung und einen (evtl. noch zu erlernenden) folgerichtigen Aufbau, beides beispielhaft in bezug auf Elementarmathematik insgesamt, auch wenn die erworbenen Fähigkeiten in der Schule dann nur zum lokalen Ordnen genutzt werden. Es wird keine Perfektion im logischen Schließen vorausgesetzt und durch die zahlreichen Zeichnungen dem anschaulichen Überbrücken von Klippen sogar Vorschub geleistet, aber es werden metamathematische Betrachtungen eingestreut, und es wird über Beweis- und Konstruktionsaufgaben permanent "Selbsttätigkeit nach den zuvor ausgeführten Beispielen" angeregt und abverlangt. Dabei kann sich der Leser fortwährend und reflektierend an den Regeln des natürlichen Schließens und damit an den wichtigsten Beweisverfahren im Anhang 1.7 orientieren. Logische Strenge wird so als nicht ein für alle mal vorgegeben, sondern als erlern- und steigerbar begriffen. Das erste Kapitel hat die Euklidische Elementargeometrie zum Inhalt, schrittweise aufgebaut auf Grundbegriffen und Axiomen. Dabei steht eine fiktive Erfahrungswelt der Kinder im Hintergrund, beispielsweise bei den Bewegungen von Figuren oder den Geraden als angeordneten Punktmengen. Um die Geometrie relativ lange im Sinne von TARSKI elementar aufbauen zu können, werden z.B. Längen und Winkelgrößen als Äquivalenzklassen betrachtet, sichern zunächst Axiome des Zirkels Konstruktion mit Zeichengeräten und den Beweis von Kongruenzsätzen ab, werden auch Drehwinkel und Schubvektoren (gerichtete Abstände) als Äquivalenzklassen begriffen. Erst im Abschnitt 1.5 wird die Vervielfachung von gerichteten Strecken mit ganzen, rationalen und reellen Zahlen realisiert, wobei der letzte Schritt ein Stetigkeitsaxiom erforderte. Auf dieser nicht mehr ganz elementaren Stufe werden Ähnlichkeit, Flächen- und Rauminhalte sowie die Theorie der Konstruktionen mit Zirkel und Lineal erörtert, insbesondere die Unlösbarkeit gewisser Aufgaben. Das zweite Kapitel bezweckt mit der Darstellung nichteuklidischer Geometrien nicht nur eine Erweiterung bisher gewonnener geometrischer Kenntnisse, sondern eine wesentliche Vertiefung des Raumbegriffes, indem Aufgabenstellungen, die im ersten Kapitel formuliert wurden, unter veränderten Rahmenbedingungen auf Lösbarkeit untersucht werden. Das geschieht zunächst für die Lobacevskijsche Geometrie mit einem Ausblick auf elliptische Geometrie und dann für die Banach- Minkowskischen Geometrien, also ausschließlich für solche Theorien, die DAVID HILBERT in seinem berühmten Vortrag "Mathematische Probleme" 1900 in Paris auf dem 2. Internationalen Mathematikerkongress als "der euklidischen Geometrie nächststehend" bezeichnet hat.
Dieser Beitrag zum Band 17 der HISTORY OF MATHEMATICS (Prag 2001) stellt unter den Untertiteln 1. Messung und Stetigkeit 2. Axiomatische Fixierung der euklidischen Geometrie 3. Verallgemeinerung zur Riemannschen Geometrie 4. Liesche Gruppen 5. Diskontinuierliche Bewegungsgruppen 6. Verallgemeinerte diskontinuierliche Bewegungsggruppen eine erweiterte Fassung des gleichlautenden Beitrags zum Sammelband MATHEMATIK-INTERDISZIPLINÄR (Shaker Verlag, Aachen 2000) dar. Da es sich um das Manuskript eines Vortrages am 2. Mai 2001 vor Lehrerbildnern der Karlsuniversität handelt, wird hier zusätzlich die Ersetzung der Stetigkeitsaxiome durch die Axiome des Zirkels, die zur analytischen Geometrie des dreidimensionalen Raumes über einem euklidischen Zahlkörper führt, diskutiert.
Mathematik : Analysis ; Handbuch für den Unterricht ; Gymnasiale Oberstufe, NRW [Schülerbuch]
(2002)
Optimal (und) begründet
(2002)
Algebra und Diskrete Mathematik gehören zu den wesentlichen Grundlagen der Informatik. Sie sind unverzichtbare Werkzeuge eines jeden Informatikers und spielen daher auch im Studium eine zentrale Rolle. Das Lehrbuch vermittelt anschaulich und leicht nachvollziehbar die wichtigsten algebraischen Grundlagen der Informatik bis hin zur Gleichungstheorie der Universellen Algebra. Zahlreiche Übungsaufgaben und ihre Lösungen helfen dem Leser, den Stoff zu verstehen
Untitled
(2005)
Fokus Mathematik ; Analytische Geometrie Lineare Algebra ; Gymnasiale Oberstufe ; Baden-Württemberg
(2005)
Mathematik : Stochastik ; Handreichungen für den Unterricht ; Gymnasiale Oberstufe [Schülerbuch]
(2005)
Das Schulbuch ist ein etablierter und bedeutender Bestandteil des Mathematikunterrichts. Lehrer nutzen es, um ihren Unterricht vorzubereiten und/oder zu gestalten; Schüler, um in selbigem zu lernen und zu bestehen, vielleicht sogar aus eigenem Interesse; Eltern, um sich darüber zu informieren, was ihr Kind eigentlich können soll und wie sie ihm gegebenenfalls helfen können. Darüber hinaus ist das Schulbuch ein markantes gesellschaftliches Produkt, dessen Zweck es ist, das Unterrichtsgeschehen zu steuern und zu beeinflussen. Damit ist es auch ein Anzeiger dafür, was und wie im Mathematikunterricht gelehrt werden sollte und wird. Die Lehrtexte als zentrale Bestandteile von Schulbüchern verweisen in diesem Zusammenhang insbesondere auf die Phasen der Einführung neuen Lernstoffs. Daraus legitimiert sich übergreifend die Fragestellung, was und wie (gut) Mathematikschulbuchlehrtexte lehren bzw. was und wie (gut) adressierte Schüler aus ihnen (selbstständig) lernen, d.h. Wissen erwerben können.
Angesichts der komplexen und vielfältigen Bedeutung von Schulbuchlehrtexten verwundert es, dass die mathematikdidaktische Forschung bislang wenig Interesse an ihnen zeigt: Es fehlen sowohl eine theoretische Konzeption der Größe ‚Lehrpotential eines schulmathematischen Lehrtextes‘ als auch ein analytisches Verfahren, um das anhand eines Mathematikschulbuchlehrtextes Verstehbare und Lernbare zu ermitteln. Mit der vorliegenden Arbeit wird sowohl in theoretisch-methodologischer als auch in empirischer Hinsicht der Versuch unternommen, diesen Defiziten zu begegnen. Dabei wird das ‚Lehrpotential eines Mathematikschulbuchlehrtextes‘ auf der Grundlage der kognitionspsychologischen Schematheorie und unter Einbeziehung textlinguistischer Ansätze als eine textimmanente und analytisch zugängliche Größe konzipiert. Anschließend wird das Lehrpotential von fünf Lehrtexten ausgewählter aktueller Schulbücher der Jahrgangsstufen 6 und 7 zu den Inhaltsbereichen ‚Brüche‘ und ‚lineare Funktionen‘ analysiert. Es zeigt sich, dass die untersuchten Lehrtexte aus deutschen Schulbüchern für Schüler sehr schwer verständlich sind, d.h. es ist kompliziert, einigen Teiltexten im Rahmen des Gesamttextes einen Sinn abzugewinnen. Die Lehrtexte sind insbesondere dann kaum sinnhaft lesbar, wenn ein Schüler versucht, die mitgeteilten Sachverhalte zu verstehen, d.h. Antworten auf die Fragen zu erhalten, warum ein mathematischer Sachverhalt gerade so und nicht anders ist, wozu ein neuer Sachverhalt/Begriff gebraucht wird, wie das Neue mit bereits Bekanntem zusammenhängt usw. Deutlich zugänglicher und sinnhafter erscheinen die Mathematikschulbuchlehrtexte hingegen unter der Annahme, dass ihre zentrale Botschaft in der Mitteilung besteht, welche Aufgabenstellungen in der jeweiligen Lehreinheit vorkommen und wie man sie bearbeitet. Demnach können Schüler anhand dieser Lehrtexte im Wesentlichen lernen, wie sie mit mathematischen Zeichen, die für sie kaum etwas bezeichnen, umgehen sollen. Die hier vorgelegten Analyseergebnisse gewinnen in einem soziologischen Kontext an Tragweite und Brisanz. So lässt sich aus ihnen u.a. die These ableiten, dass die analysierten Lehrtexte keine ‚unglücklichen‘ Einzelfälle sind, sondern dass die ‚Aufgabenorientierung in einem mathematischen Gewand‘ ein Charakteristikum typischer (deutscher) Mathematikschulbuchlehrtexte und – noch grundsätzlicher – einen Wesenszug typischer schulmathematischer Kommunikation darstellt.
Die vorliegende Studie untersucht die gesellschaftliche Rolle des gegenwärtigen Mathematikunterrichts an deutschen allgemeinbildenden Schulen aus einer soziologisch-kritischen Perspektive. In Zentrum des Interesses steht die durch den Mathematikunterricht erfahrene Sozialisation. Die Studie umfasst unter anderem eine Literaturdiskussion, die Ausarbeitung eines soziologischen Rahmens auf der Grundlage des Werks von Michel Foucault und zwei Teilstudien zur Soziologie der Logik und des Rechnens. Abschließend werden Dispositive des Mathematischen beschrieben, die darlegen, in welcher Art und mit welcher persönlichen und gesellschaftlichen Folgen der gegenwärtige Mathematikunterricht eine spezielle Geisteshaltung etabliert.
Aus dem Inhalt: Inhaltsverzeichnis Abbildungsverzeichnis Tabellenverzeichnis 1 Einleitung und Motivation 2 Multivariate Copulafunktionen 2.1 Einleitung 2.2 Satz von Sklar 2.3 Eigenschaften von Copulafunktionen 3 Abhängigkeitskonzepte 3.1 Lineare Korrelation 3.2 Copulabasierte Abhängigkeitsmaße 3.2.1 Konkordanz 3.2.2 Kendall’s und Spearman’s 3.2.3 Asymptotische Randabhängigkeit 4 Elliptische Copulaklasse 4.1 Sphärische und elliptische Verteilungen 4.2 Normal-Copula 4.3 t-Copula 5 Parametrische Schätzverfahren 5.1 Maximum-Likelihood-Methode 5.1.1 ExakteMaximum-Likelihood-Methode 5.1.2 2-stufige parametrische Maximum-Likelihood-Methode 5.1.3 2-stufige semiparametrische Maximum-Likelihood-Methode 5.2 Momentenmethode 5.3 Kendall’s -Momentenmethode 6 Parameterschätzungen für Normal- und t-Copula 6.1 Normal-Copula 6.1.1 Maximum-Likelihood-Methode 6.1.2 Momentenmethode 6.1.3 Kendall’s Momentenmethode 6.1.4 Spearman’s Momentenmethode 6.2 t-Copula 6.2.1 Verfahren 1 (exakte ML-Methode) 6.2.2 Verfahren 2 (2-stufige rekursive ML-Methode) 6.2.3 Verfahren 3 (2-stufige KM-ML-Methode) 6.2.4 Verfahren 4 (3-stufige M-ML-Methode) 7 Simulationen 7.1 Grundlagen 7.2 Parametrischer Fall 7.3 Nichtparametrischer Fall 7.4 Fazit A Programmausschnitt Literaturverzeichnis
Aus dem Inhalt: Einleitung und Zusammenfassung 1 Grundlagen der Lebensdaueranalyse 2 Systemzuverlässigkeit 3 Zensierung 4 Schätzen in nichtparametrischen Modellen 5 Schätzen in parametrischen Modellen 6 Konfidenzintervalle für Parameterschätzungen 7 Verteilung einer gemischten Population 8 Kurze Einführung: Lebensdauer und Belastung 9 Ausblick A R-Quellcode B Symbole und Abkürzungen
Harness-Prozesse
(2010)
Harness-Prozesse finden in der Forschung immer mehr Anwendung. Vor allem gewinnen Harness-Prozesse in stetiger Zeit an Bedeutung. Grundlegende Literatur zu diesem Thema ist allerdings wenig vorhanden. In der vorliegenden Arbeit wird die vorhandene Grundlagenliteratur zu Harness-Prozessen in diskreter und stetiger Zeit aufgearbeitet und Beweise ausgeführt, die bisher nur skizziert waren. Ziel dessen ist die Existenz einer Zerlegung von Harness-Prozessen über Z beziehungsweise R+ nachzuweisen.
Das Sammelbilderproblem
(2010)
Estimation and testing of distributions in metric spaces are well known. R.A. Fisher, J. Neyman, W. Cochran and M. Bartlett achieved essential results on the statistical analysis of categorical data. In the last 40 years many other statisticians found important results in this field. Often data sets contain categorical data, e.g. levels of factors or names. There does not exist any ordering or any distance between these categories. At each level there are measured some metric or categorical values. We introduce a new method of scaling based on statistical decisions. For this we define empirical probabilities for the original observations and find a class of distributions in a metric space where these empirical probabilities can be found as approximations for equivalently defined probabilities. With this method we identify probabilities connected with the categorical data and probabilities in metric spaces. Here we get a mapping from the levels of factors or names into points of a metric space. This mapping yields the scale for the categorical data. From the statistical point of view we use multivariate statistical methods, we calculate maximum likelihood estimations and compare different approaches for scaling.
We consider a class of infinite-dimensional diffusions where the interaction between the components is both spatial and temporal. We start the system from a Gibbs measure with finiterange uniformly bounded interaction. Under suitable conditions on the drift, we prove that there exists t0 > 0 such that the distribution at time t = t0 is a Gibbs measure with absolutely summable interaction. The main tool is a cluster expansion of both the initial interaction and certain time-reversed Girsanov factors coming from the dynamics.
Aus dem Inhalt: Einleitung Kapitel 1. Starke Gesetze der Grossen Zahlen 1. SGGZ unter Wachstumsbedingungen an die p-ten Momente 2. SGGZ für identisch verteilte Zufallsvariablen 3. SGGZ für Prozesse mit *-mixing-Eigenschaft Kapitel 2. Einführung zu diskreten (Sub-,Super-)Martingalen 1. Vorhersagbarkeit 2. gestoppte (Sub-,Super-)Martingale 3. Upcrossings 4. Konvergenzsätze 5. Doob-Zerlegung 6. Eine äquivalente Definition eines (Sub-)Martingals Kapitel 3. Martingale und gleichgradige Integrierbarkeit 1. Gleichmäßige(-f¨ormige,-gradige) Integrierbarkeit 2. gleichgradig integrierbare Martingale Kapitel 4. Martingale und das SGGZ Kapitel 5.”reversed“ (Sub-,Super-)Martingale 1. Konvergenzsätze Kapitel 6. (Sub-,Super-)Martingale mit gerichteter Indexmenge 1. Äquivalente Formulierung eines (Sub-)Martingals 2. Konvergenzsätze Kapitel 7. Quasimartingale,Amarts und Semiamarts 1. Konvergenzsätze 2. Riesz-Zerlegung 3. Doob-Zerlegung Kapitel 8. Amarts und das SGGZ Kapitel 9.”reversed“ Amarts und Semiamarts 1. Konvergenzsätze 2.”Aufwärts“- gegen ”Abwärts“-Adaptiertheit 3. Riesz-Zerlegung 4. Stabilitätsanalyse Kapitel 10. Amarts mit gerichteter Indexmenge 1. Konvergenzsätze 2. Riesz-Zerlegung Anhang A. zur Existenz einer Folge unabhängiger Zufallsvariablen B. Konvergenz
Aus dem Inhalt: 0.1 Danksagung 0.2 Einleitung 1 Allgemeines und Grundlagen 1.1 Die Brownsche Bewegung 2 Die Dualitätsformel des Wienermaßes 2.1 Wienermaß erfüllt Dualitätsformel 2.2 Dualitätsformel charakterisiert Wienermaß 3 Die diskrete Dualitätsformel der Irrfahrt 3.1 Verallgemeinerte symmetrische Irrfahrt erfüllt diskrete Dualitätsformel 3.2 Diskrete Dualitätsformel charakterisiert verallgemeinerte symmetrische Irrfahrt 4 Donskers Theorem und die Dualitätsformeln 4.1 Straffheit der renormierten stetigen Irrfahrt 4.2 Konvergenz der Irrfahrt 5 Anhang
Aus dem Inhalt: 1 Abraham Wald (1902-1950) 2 Einführung der Grundbegriffe. Einige technische bekannte Ergebnisse 2.1 Martingal und Doob-Ungleichung 2.2 Brownsche Bewegung und spezielle Martingale 2.3 Gleichgradige Integrierbarkeit von Prozessen 2.4 Gestopptes Martingal 2.5 Optionaler Stoppsatz von Doob 2.6 Lokales Martingal 2.7 Quadratische Variation 2.8 Die Dichte der ersten einseitigen Überschreitungszeit der Brown- schen Bewegung 2.9 Waldidentitäten für die Überschreitungszeiten der Brownschen Bewegung 3 Erste Waldidentität 3.1 Burkholder, Gundy und Davis Ungleichungen der gestoppten Brown- schen Bewegung 3.2 Erste Waldidentität für die Brownsche Bewegung 3.3 Verfeinerungen der ersten Waldidentität 3.4 Stärkere Verfeinerung der ersten Waldidentität für die Brown- schen Bewegung 3.5 Verfeinerung der ersten Waldidentität für spezielle Stoppzeiten der Brownschen Bewegung 3.6 Beispiele für lokale Martingale für die Verfeinerung der ersten Waldidentität 3.7 Überschreitungszeiten der Brownschen Bewegung für nichtlineare Schranken 4 Zweite Waldidentität 4.1 Zweite Waldidentität für die Brownsche Bewegung 4.2 Anwendungen der ersten und zweitenWaldidentität für die Brown- schen Bewegung 5 Dritte Waldidentität 5.1 Dritte Waldidentität für die Brownsche Bewegung 5.2 Verfeinerung der dritten Waldidentität 5.3 Eine wichtige Voraussetzung für die Verfeinerung der drittenWal- didentität 5.4 Verfeinerung der dritten Waldidentität für spezielle Stoppzeiten der Brownschen Bewegung 6 Waldidentitäten im Mehrdimensionalen 6.1 Erste Waldidentität im Mehrdimensionalen 6.2 Zweite Waldidentität im Mehrdimensionalen 6.3 Dritte Waldidentität im Mehrdimensionalen 7 Appendix
In diesem Beitrag wird der Zusammenhang zwischen Algebrodifferentialgleichungen (ADGL) und Vektorfeldern auf Mannigfaltigkeiten untersucht. Dazu wird zunächst der Begriff der regulären ADGL eingeführt, wobei unter eirter regulären ADGL eine ADGL verstanden wird, deren Lösungsmenge identisch mit der Lösungsmenge eines Vektorfeldes ist. Ausgehend von bekannten Aussagen über die Lösungsmenge eines Vektorfeldes werden analoge Aussagen für die Lösungsmenge einer regulären ADGL abgeleitet. Es wird eine Reduktionsmethode angegeben, die auf ein Kriterium für die Begularität einer ADGL und auf die Definition des Index einer nichtlinearen ADGL führt. Außerdem wird gezeigt, daß beliebige Vektorfelder durch reguläre ADGL so realisiert werden können, daß die Lösungsmenge des Vektorfeldes mit der der realisierenden ADGL identisch ist. Abschließend werden die für autonome ADGL gewonnenen Aussagen auf den Fall der nichtautonomen ADGL übertragen.
In this paper we consider the hypo-ellipticity of differential forms on a closed manifold.The main results show that there are some topological obstruct for the existence of the differential forms with hypoellipticity.
Die vorliegende Diplomarbeit beschäftigt sich mit zwei Aspekten der statistischen Eigenschaften von Clusterverfahren. Zum einen geht die Arbeit auf die Frage der Existenz von unterschiedlichen Clusteranalysemethoden zur Strukturfindung und deren unterschiedlichen Vorgehensweisen ein. Die Methode des Abstandes zwischen Mannigfaltigkeiten und die K-means Methode liefern ausgehend von gleichen Daten unterschiedliche Endclusterungen. Der zweite Teil dieser Arbeit beschäftigt sich näher mit den asymptotischen Eigenschaften des K-means Verfahrens. Hierbei ist die Menge der optimalen Clusterzentren konsistent. Bei Vergrößerung des Stichprobenumfangs gegen Unendlich konvergiert diese in Wahrscheinlichkeit gegen die Menge der Clusterzentren, die das Varianzkriterium minimiert. Ebenfalls konvergiert die Menge der optimalen Clusterzentren für n gegen Unendlich gegen eine Normalverteilung. Es hat sich dabei ergeben, dass die einzelnen Clusterzentren voneinander abhängen.
We formalize and analyze the notions of monotonicity and complete monotonicity for Markov Chains in continuous-time, taking values in a finite partially ordered set. Similarly to what happens in discrete-time, the two notions are not equivalent. However, we show that there are partially ordered sets for which monotonicity and complete monotonicity coincide in continuoustime but not in discrete-time.
"Considerons une particule mobile se mouvant aleatoirement sur la droite (ou sur un segment de droite). Supposons qu'il existe une probabilite F(x,y;s,t) bien definie pour que la particule se trouvant a l'instant s dans la position x se trouve a l'instant t (> s) a gauche de y, probabilite independante du mouvement anterieur de la particule...." Mit diesen Worten beginnt eines der berühmtesten mathematischen Manuskripte des letzten Jahrhunderts. Es stammt vom Soldaten Wolfgang Döblin, Sohn des deutschen Schriftstellers Alfred Döblin, und trägt den Titel "Sur l'equation de Kolmogoroff". Seine Veröffentlichung verbindet sich mit einer unglaublichen Geschichte. Wolfgang Döblin, stationiert mit seiner Einheit in den Ardennen im Winter 1939/1940, arbeitete an diesem Manuskript. Er entschloss sich, es als versiegeltes Manuskript an die Academie des Sciences in Paris zu schicken. Aber er kehrte nie aus diesem Krieg zurück. Sein Manuskript blieb 60 Jahre unter Verschluss im Archiv, und wurde erst im Jahre 2000 geöffnet. Wie weit Döblin damit seiner Zeit voraus war, wurde erkannt, nachdem es von Bernard Bru und Marc Yor ausgewertet worden war. Im ersten Satz umschreibt W. Döblin gleichzeitig das Programm des Manuskripts: "Wir betrachten ein bewegliches Teilchen, das sich zufällig auf der Geraden (oder einem Teil davon) bewegt." Er widmet sich damit der Aufgabe, die Fundamente eines Gebiets zu legen, das wir heute als stochastische Analysis bezeichnen.
Als ich anfing, ein Thema für meine Promotion zu erarbeiten, fand ich Massentests ziemlich beeindruckend. TIMSS: über 500000 Schüler getestet. PISA: 180000 Schüler getestet. Ich wollte diese Datenbasis nutzen, um Erkenntnisse für die Gestaltung von Unterricht zu gewinnen. Leider kam ich damit nicht weit. Je tiefer ich mich mit den Tests und den dahinterstehenden Theorien befasste, desto deutlicher schälte sich heraus, dass mit diesen Tests keine neue Erkenntnis generiert werden kann. Fast alle Schlussfolgerungen, die aus den Tests gezogen werden, konnten gar nicht aus den Tests selbst gewonnen werden. Ich konzentrierte mich zunehmend auf die Testaufgaben, weil die Geltung der Aussage eines Tests an der Aufgabe erzeugt wird: In der Aufgabe gerinnt das, was die Tester als „mathematische Leistungsfähigkeit“ konstruieren. Der Schüler wiederum hat nur die Aufgabe vor sich. Es gibt nur „gelöst“ (ein Punkt) und „ungelöst“ (kein Punkt). Damit der Schüler den Punkt bekommt, muss er an der richtigen Stelle ankreuzen, oder er muss etwas hinschrei-ben, wofür der Auswerter einen Punkt gibt. In der Dissertation wird untersucht, was die Aufgaben testen, was also alles in das Konstrukt von „mathematischer Leistungsfähigkeit“ einfließt, und ob es das ist, was der Test testen soll. Es stellte sich durchaus erstaunliches heraus: - Oftmals gibt es so viele Möglichkeiten, zur gewünschten Lösung (die nicht in jedem Fall die richtige Lösung ist) zu gelangen, dass man nicht benennen kann, welche Fähigkeit die Aufgabe eigentlich misst. Das Konstrukt „mathematische Leistungsfähigkeit“ wird damit zu einem zufälligen. - Es werden Komponenten von Testfähigkeit mitgemessen: Viele Aufgaben enthalten Irritationen, welche von testerfahrenen Schülern leichter überwunden werden können als von testunerfahrenen. Es gibt Aufgaben, die gelöst werden können, ohne dass man über die Fähigkeit verfügt, die getestet werden soll. Umgekehrt gibt es Aufgaben, die man eventuell nicht lösen kann, obwohl man über diese Fähigkeit verfügt. Als Kernkompetenz von Testfähigkeit stellt sich heraus, weder das gestellte mathematische Problem noch die angeblichen realen Proble-me ernst zu nehmen, sondern sich statt dessen auf das zu konzentrieren, was die Tester angekreuzt oder hinge-schrieben sehen wollen. Prinzipiell erweist es sich als günstig, mittelmäßig zu arbeiten, auf intellektuelle Tiefe in der Auseinandersetzung mit den Aufgaben also zu verzichten. - Man kann bei Multiple-Choice-Tests raten. Die PISA-Gruppe behauptet zwar, dieses Problem technisch über-winden zu können, dies erweist sich aber als Fehleinschätzung. - Sowohl bei TIMSS als auch bei PISA stellt sich heraus, dass die vorgeblich verwendeten didaktischen und psychologischen Theorien lediglich theoretische Mäntel für eine theoriearme Testerstellung sind. Am Beispiel der Theorie der mentalen Situationsmodelle (zur Bearbeitung von realitätsnahen Aufgaben) wird dies ausführlich exemplarisch ausgearbeitet. Das Problem reproduziert sich in anderen Theoriefeldern. Die Tests werden nicht durch Operationalisierungen von Messkonstrukten erstellt, sondern durch systematisches Zusammenstückeln von Aufgaben. - Bei PISA sollte „Mathematical Literacy“ getestet werden. Verkürzt sollte das die Fähigkeit sein, „die Rolle, die Mathematik in der Welt spielt, zu erkennen und zu verstehen, begründete mathematische Urteile abzugeben und sich auf eine Weise mit der Mathematik zu befassen, die den Anforderungen des gegenwärtigen und künftigen Lebens einer Person als eines konstruktiven, engagierten und reflektierten Bürgers entspricht“ (PISA-Eigendarstellung). Von all dem kann angesichts der Aufgaben keine Rede sein. - Bei der Untersuchung des PISA-Tests drängte sich ein mathematikdidaktischer Habitus auf, der eine separate Untersuchung erzwang. Ich habe ihn unter dem Stichwort der „Abkehr von der Sache“ zusammengefasst. Er ist geprägt von Zerstörungen des Mathematischen bei gleichzeitiger Überbetonung des Fachsprachlichen und durch Verwerfungen des Mathematischen und des Realen bei realitätsnahen Aufgaben. Letzteres gründet in der Nicht-beachtung der Authentizität sowohl des Realen als auch des Mathematischen. Die Arbeit versammelt neben den Untersuchungen zu TIMSS und PISA ein ausführliches Kapitel über das Prob-lem des Testens und eine Darstellung der Methodologie und Praxis der Objektiven Hermeneutik.
Was misst TIMSS?
(2001)
Bei der Erstellung und Interpretation mathematischer Leistungstests steht die Frage, was eine Aufgabe mißt. Der Artikel stellt mit der strukturalen oder objektiven Hermeneutik eine Methode vor, mit der die verschiedenen Dimensionen der von einer Aufgabe erfassten Fähigkeiten herausgearbeitet werden können. Dabei werden fachliche Anforderungen, Irritationsmomente und das durch die Aufgabe transportierte Bild vom jeweiligen Fach ebenso erfasst wie Momente, die man eher als Testfähigkeit bezeichnen würde.Am Beispiel einer TIMSS-Aufgabe wird diskutiert, dass das von den Testerstellern benutzte theoretische Konstrukt kaum geeignet ist, nachhaltig zu beschreiben, was eine Aufgabe misst.
Als Grundlage vieler statistischer Verfahren wird der Prozess der Entstehung von Daten modelliert, um dann weitere Schätz- und Testverfahren anzuwenden. Diese Arbeit befasst sich mit der Frage, wie diese Spezifikation für parametrische Modelle selbst getestet werden kann. In Erweiterung bestehender Verfahren werden Tests mit festem Kern eingeführt und ihre asymptotischen Eigenschaften werden analysiert. Es wird gezeigt, dass die Bestimmung der kritischen Werte mit mehreren Stichprobenwiederholungsverfahren möglich ist. Von diesen ist eine neue Monte-Carlo-Approximation besonders wichtig, da sie die Komplexität der Berechnung deutlich verringern kann. Ein bedingter Kleinste-Quadrate-Schätzer für nichtlineare parametrische Modelle wird definiert und seine wesentlichen asymptotischen Eigenschaften werden hergeleitet. Sämtliche Versionen der Tests und alle neuen Konzepte wurden in Simulationsstudien untersucht, deren wichtigste Resultate präsentiert werden. Die praktische Anwendbarkeit der Testverfahren wird an einem Datensatz zur Produktwahl dargelegt, der mit multinomialen Logit-Modellen analysiert werden soll.