Refine
Year of publication
Document Type
- Article (119)
- Monograph/Edited Volume (73)
- Doctoral Thesis (26)
- Other (18)
- Preprint (13)
- Master's Thesis (4)
- Review (3)
- Bachelor Thesis (2)
- Part of a Book (2)
- Conference Proceeding (2)
Language
- German (265) (remove)
Keywords
- Mathematikunterricht (3)
- Corona (2)
- Kompetenzen (2)
- Mathematikdidaktik (2)
- Teamarbeit (2)
- Verzweigungsprozess (2)
- branching process (2)
- didactics of mathematics (2)
- ACAT (1)
- Activity Theory (1)
Institute
- Institut für Mathematik (265) (remove)
Übungsbuch zur Stochastik
(2023)
Dieses Buch stellt Übungen zu den Grundbegriffen und Grundsätzen der Stochastik und ihre Lösungen zur Verfügung. So wie man Tonleitern in der Musik trainiert, so berechnet man Übungsaufgaben in der Mathematik. In diesem Sinne soll dieses Übungsbuch vor allem als Vorlage dienen für das eigenständige, eigenverantwortliche Lernen und Üben.
Die Schönheit und Einzigartigkeit der Wahrscheinlichkeitstheorie besteht darin, dass sie eine Vielzahl von realen Phänomenen modellieren kann. Daher findet man hier Aufgaben mit Verbindungen zur Geometrie, zu Glücksspielen, zur Versicherungsmathematik, zur Demographie und vielen anderen Themen.
Aus dem Inhalt: 1 Abraham Wald (1902-1950) 2 Einführung der Grundbegriffe. Einige technische bekannte Ergebnisse 2.1 Martingal und Doob-Ungleichung 2.2 Brownsche Bewegung und spezielle Martingale 2.3 Gleichgradige Integrierbarkeit von Prozessen 2.4 Gestopptes Martingal 2.5 Optionaler Stoppsatz von Doob 2.6 Lokales Martingal 2.7 Quadratische Variation 2.8 Die Dichte der ersten einseitigen Überschreitungszeit der Brown- schen Bewegung 2.9 Waldidentitäten für die Überschreitungszeiten der Brownschen Bewegung 3 Erste Waldidentität 3.1 Burkholder, Gundy und Davis Ungleichungen der gestoppten Brown- schen Bewegung 3.2 Erste Waldidentität für die Brownsche Bewegung 3.3 Verfeinerungen der ersten Waldidentität 3.4 Stärkere Verfeinerung der ersten Waldidentität für die Brown- schen Bewegung 3.5 Verfeinerung der ersten Waldidentität für spezielle Stoppzeiten der Brownschen Bewegung 3.6 Beispiele für lokale Martingale für die Verfeinerung der ersten Waldidentität 3.7 Überschreitungszeiten der Brownschen Bewegung für nichtlineare Schranken 4 Zweite Waldidentität 4.1 Zweite Waldidentität für die Brownsche Bewegung 4.2 Anwendungen der ersten und zweitenWaldidentität für die Brown- schen Bewegung 5 Dritte Waldidentität 5.1 Dritte Waldidentität für die Brownsche Bewegung 5.2 Verfeinerung der dritten Waldidentität 5.3 Eine wichtige Voraussetzung für die Verfeinerung der drittenWal- didentität 5.4 Verfeinerung der dritten Waldidentität für spezielle Stoppzeiten der Brownschen Bewegung 6 Waldidentitäten im Mehrdimensionalen 6.1 Erste Waldidentität im Mehrdimensionalen 6.2 Zweite Waldidentität im Mehrdimensionalen 6.3 Dritte Waldidentität im Mehrdimensionalen 7 Appendix
Zwölf Punkte auf einer Kugel
(1994)
Die Bienaymé-Galton-Watson Prozesse können für die Untersuchung von speziellen und sich entwickelnden Populationen verwendet werden. Die Populationen umfassen Individuen, welche sich identisch, zufällig, selbstständig und unabhängig voneinander fortpflanzen und die jeweils nur eine Generation existieren. Die n-te Generation ergibt sich als zufällige Summe der Individuen der (n-1)-ten Generation. Die Relevanz dieser Prozesse begründet sich innerhalb der Historie und der inner- und außermathematischen Bedeutung. Die Geschichte der Bienaymé-Galton-Watson-Prozesse wird anhand der Entwicklung des Konzeptes bis heute dargestellt. Dabei werden die Wissenschaftler:innen verschiedener Disziplinen angeführt, die Erkenntnisse zu dem Themengebiet beigetragen und das Konzept in ihren Fachbereichen angeführt haben. Somit ergibt sich die außermathematische Signifikanz. Des Weiteren erhält man die innermathematische Bedeutsamkeit mittels des Konzeptes der Verzweigungsprozesse, welches auf die Bienaymé-Galton-Watson Prozesse zurückzuführen ist. Die Verzweigungsprozesse stellen eines der aussagekräftigsten Modelle für die Beschreibung des Populationswachstums dar. Darüber hinaus besteht die derzeitige Wichtigkeit durch die Anwendungsmöglichkeit der Verzweigungsprozesse und der Bienaymé-Galton-Watson Prozesse innerhalb der Epidemiologie. Es werden die Ebola- und die Corona-Pandemie als Anwendungsfelder angeführt. Die Prozesse dienen als Entscheidungsstütze für die Politik und ermöglichen Aussagen über die Auswirkungen von Maßnahmen bezüglich der Pandemien. Neben den Prozessen werden ebenfalls der bedingte Erwartungswert bezüglich diskreter Zufallsvariablen, die wahrscheinlichkeitserzeugende Funktion und die zufällige Summe eingeführt. Die Konzepte vereinfachen die Beschreibung der Prozesse und bilden somit die Grundlage der Betrachtungen. Außerdem werden die benötigten und weiterführenden Eigenschaften der grundlegenden Themengebiete und der Prozesse aufgeführt und bewiesen. Das Kapitel erreicht seinen Höhepunkt bei dem Beweis des Kritikalitätstheorems, wodurch eine Aussage über das Aussterben des Prozesses in verschiedenen Fällen und somit über die Aussterbewahrscheinlichkeit getätigt werden kann. Die Fälle werden anhand der zu erwartenden Anzahl an Nachkommen eines Individuums unterschieden. Es zeigt sich, dass ein Prozess bei einer zu erwartenden Anzahl kleiner gleich Eins mit Sicherheit ausstirbt und bei einer Anzahl größer als Eins, die Population nicht in jedem Fall aussterben muss. Danach werden einzelne Beispiele, wie der linear fractional case, die Population von Fibroblasten (Bindegewebszellen) von Mäusen und die Entstehungsfragestellung der Prozesse, angeführt. Diese werden mithilfe der erlangten Ergebnisse untersucht und einige ausgewählte zufällige Dynamiken werden im nachfolgenden Kapitel simuliert. Die Simulationen erfolgen durch ein in Python erstelltes Programm und werden mithilfe der Inversionsmethode realisiert. Die Simulationen stellen beispielhaft die Entwicklungen in den verschiedenen Kritikalitätsfällen der Prozesse dar. Zudem werden die Häufigkeiten der einzelnen Populationsgrößen in Form von Histogrammen angebracht. Dabei lässt sich der Unterschied zwischen den einzelnen Fällen bestätigen und es wird die Anwendungsmöglichkeit der Bienaymé-Galton-Watson Prozesse bei komplexeren Problemen deutlich. Histogramme bekräftigen, dass die einzelnen Populationsgrößen nur endlich oft vorkommen. Diese Aussage wurde von Galton aufgeworfen und in der Extinktions-Explosions-Dichotomie verwendet. Die dargestellten Erkenntnisse über das Themengebiet und die Betrachtung des Konzeptes werden mit einer didaktischen Analyse abgeschlossen. Die Untersuchung beinhaltet die Berücksichtigung der Fundamentalen Ideen, der Fundamentalen Ideen der Stochastik und der Leitidee „Daten und Zufall“. Dabei ergibt sich, dass in Abhängigkeit der gewählten Perspektive die Anwendung der Bienaymé-Galton-Watson Prozesse innerhalb der Schule plausibel ist und von Vorteil für die Schüler:innen sein kann. Für die Behandlung wird exemplarisch der Rahmenlehrplan für Berlin und Brandenburg analysiert und mit dem Kernlehrplan Nordrhein-Westfalens verglichen. Die Konzeption des Lehrplans aus Berlin und Brandenburg lässt nicht den Schluss zu, dass die Bienaymé-Galton-Watson Prozesse angewendet werden sollten. Es lässt sich feststellen, dass die zugrunde liegende Leitidee nicht vollumfänglich mit manchen Fundamentalen Ideen der Stochastik vereinbar ist. Somit würde eine Modifikation hinsichtlich einer stärkeren Orientierung des Lehrplans an den Fundamentalen Ideen die Anwendung der Prozesse ermöglichen. Die Aussage wird durch die Betrachtung und Übertragung eines nordrhein-westfälischen Unterrichtsentwurfes für stochastische Prozesse auf die Bienaymé-Galton-Watson Prozesse unterstützt. Darüber hinaus werden eine Concept Map und ein Vernetzungspentagraph nach von der Bank konzipiert um diesen Aspekt hervorzuheben.
Zur Erinnerung an Mathematikerinnen und Mathematiker, die im Nationalsozialismus verfolgt wurden
(1995)
Zahlen in den Fingern
(2023)
Die Debatte über den Einsatz von digitalen Werkzeugen in der mathematischen Frühförderung ist hoch aktuell. Lernspiele werden konstruiert, mit dem Ziel, mathematisches, informelles Wissen aufzubauen und so einen besseren Schulstart zu ermöglichen. Doch allein die digitale und spielerische Aufarbeitung führt nicht zwingend zu einem Lernerfolg. Daher ist es umso wichtiger, die konkrete Implementation der theoretischen Konstrukte und Interaktionsmöglichkeiten mit den Werkzeugen zu analysieren und passend aufzubereiten.
In dieser Masterarbeit wird dazu exemplarisch ein mathematisches Lernspiel namens „Fingu“ für den Einsatz im vorschulischen Bereich theoretisch und empirisch im Rahmen der Artifact-Centric Activity Theory (ACAT) untersucht. Dazu werden zunächst die theoretischen Hintergründe zum Zahlensinn, Zahlbegriffserwerb, Teil-Ganze-Verständnis, der Anzahlwahrnehmung und -bestimmung, den Anzahlvergleichen und der Anzahldarstellung mithilfe von Fingern gemäß der Embodied Cognition sowie der Verwendung von digitalen Werkzeugen und Multi-Touch-Geräten umfassend beschrieben. Anschließend wird die App Fingu erklärt und dann theoretisch entlang des ACAT-Review-Guides analysiert. Zuletzt wird die selbstständig durchgeführte Studie mit zehn Vorschulkindern erläutert und darauf aufbauend Verbesserungs- und Entwicklungsmöglichkeiten der App auf wissenschaftlicher Grundlage beigetragen. Für Fingu lässt sich abschließend festhalten, dass viele Prozesse wie die (Quasi-)Simultanerfassung oder das Zählen gefördert werden können, für andere wie das Teil-Ganze-Verständnis aber noch Anpassungen und/oder die Begleitung durch Erwachsene nötig ist.
Wo bleibt das Subversive?
(1997)
Wo bleibt das Subversive?
(1999)
Die Lehre von wissenschaftlichem Arbeiten stellt einen zentralen Aspekt in forschungsorientierten Studiengängen wie der Informatik dar. Trotz diverser Angebote werden mittel- und langfristig Mängel in der
Arbeitsqualität von Studierenden sichtbar. Dieses Paper analysiert daher das Profil der Studierenden, deren Anwendung des wissenschaftlichen Arbeitens, und das Angebot von Proseminaren zum Thema „Einführung in das wissenschaftliche Arbeiten“ einer deutschen Universität. Die Ergebnisse mehrerer Erhebungen zeigen dabei diverse Probleme bei Studierenden auf, u. a. bei dem Prozessverständnis, dem Zeitmanagement und der Kommunikation.
WIP-Projekt "Kosmologie"
(1994)
Als ich anfing, ein Thema für meine Promotion zu erarbeiten, fand ich Massentests ziemlich beeindruckend. TIMSS: über 500000 Schüler getestet. PISA: 180000 Schüler getestet. Ich wollte diese Datenbasis nutzen, um Erkenntnisse für die Gestaltung von Unterricht zu gewinnen. Leider kam ich damit nicht weit. Je tiefer ich mich mit den Tests und den dahinterstehenden Theorien befasste, desto deutlicher schälte sich heraus, dass mit diesen Tests keine neue Erkenntnis generiert werden kann. Fast alle Schlussfolgerungen, die aus den Tests gezogen werden, konnten gar nicht aus den Tests selbst gewonnen werden. Ich konzentrierte mich zunehmend auf die Testaufgaben, weil die Geltung der Aussage eines Tests an der Aufgabe erzeugt wird: In der Aufgabe gerinnt das, was die Tester als „mathematische Leistungsfähigkeit“ konstruieren. Der Schüler wiederum hat nur die Aufgabe vor sich. Es gibt nur „gelöst“ (ein Punkt) und „ungelöst“ (kein Punkt). Damit der Schüler den Punkt bekommt, muss er an der richtigen Stelle ankreuzen, oder er muss etwas hinschrei-ben, wofür der Auswerter einen Punkt gibt. In der Dissertation wird untersucht, was die Aufgaben testen, was also alles in das Konstrukt von „mathematischer Leistungsfähigkeit“ einfließt, und ob es das ist, was der Test testen soll. Es stellte sich durchaus erstaunliches heraus: - Oftmals gibt es so viele Möglichkeiten, zur gewünschten Lösung (die nicht in jedem Fall die richtige Lösung ist) zu gelangen, dass man nicht benennen kann, welche Fähigkeit die Aufgabe eigentlich misst. Das Konstrukt „mathematische Leistungsfähigkeit“ wird damit zu einem zufälligen. - Es werden Komponenten von Testfähigkeit mitgemessen: Viele Aufgaben enthalten Irritationen, welche von testerfahrenen Schülern leichter überwunden werden können als von testunerfahrenen. Es gibt Aufgaben, die gelöst werden können, ohne dass man über die Fähigkeit verfügt, die getestet werden soll. Umgekehrt gibt es Aufgaben, die man eventuell nicht lösen kann, obwohl man über diese Fähigkeit verfügt. Als Kernkompetenz von Testfähigkeit stellt sich heraus, weder das gestellte mathematische Problem noch die angeblichen realen Proble-me ernst zu nehmen, sondern sich statt dessen auf das zu konzentrieren, was die Tester angekreuzt oder hinge-schrieben sehen wollen. Prinzipiell erweist es sich als günstig, mittelmäßig zu arbeiten, auf intellektuelle Tiefe in der Auseinandersetzung mit den Aufgaben also zu verzichten. - Man kann bei Multiple-Choice-Tests raten. Die PISA-Gruppe behauptet zwar, dieses Problem technisch über-winden zu können, dies erweist sich aber als Fehleinschätzung. - Sowohl bei TIMSS als auch bei PISA stellt sich heraus, dass die vorgeblich verwendeten didaktischen und psychologischen Theorien lediglich theoretische Mäntel für eine theoriearme Testerstellung sind. Am Beispiel der Theorie der mentalen Situationsmodelle (zur Bearbeitung von realitätsnahen Aufgaben) wird dies ausführlich exemplarisch ausgearbeitet. Das Problem reproduziert sich in anderen Theoriefeldern. Die Tests werden nicht durch Operationalisierungen von Messkonstrukten erstellt, sondern durch systematisches Zusammenstückeln von Aufgaben. - Bei PISA sollte „Mathematical Literacy“ getestet werden. Verkürzt sollte das die Fähigkeit sein, „die Rolle, die Mathematik in der Welt spielt, zu erkennen und zu verstehen, begründete mathematische Urteile abzugeben und sich auf eine Weise mit der Mathematik zu befassen, die den Anforderungen des gegenwärtigen und künftigen Lebens einer Person als eines konstruktiven, engagierten und reflektierten Bürgers entspricht“ (PISA-Eigendarstellung). Von all dem kann angesichts der Aufgaben keine Rede sein. - Bei der Untersuchung des PISA-Tests drängte sich ein mathematikdidaktischer Habitus auf, der eine separate Untersuchung erzwang. Ich habe ihn unter dem Stichwort der „Abkehr von der Sache“ zusammengefasst. Er ist geprägt von Zerstörungen des Mathematischen bei gleichzeitiger Überbetonung des Fachsprachlichen und durch Verwerfungen des Mathematischen und des Realen bei realitätsnahen Aufgaben. Letzteres gründet in der Nicht-beachtung der Authentizität sowohl des Realen als auch des Mathematischen. Die Arbeit versammelt neben den Untersuchungen zu TIMSS und PISA ein ausführliches Kapitel über das Prob-lem des Testens und eine Darstellung der Methodologie und Praxis der Objektiven Hermeneutik.
Was misst TIMSS?
(2001)
Bei der Erstellung und Interpretation mathematischer Leistungstests steht die Frage, was eine Aufgabe mißt. Der Artikel stellt mit der strukturalen oder objektiven Hermeneutik eine Methode vor, mit der die verschiedenen Dimensionen der von einer Aufgabe erfassten Fähigkeiten herausgearbeitet werden können. Dabei werden fachliche Anforderungen, Irritationsmomente und das durch die Aufgabe transportierte Bild vom jeweiligen Fach ebenso erfasst wie Momente, die man eher als Testfähigkeit bezeichnen würde.Am Beispiel einer TIMSS-Aufgabe wird diskutiert, dass das von den Testerstellern benutzte theoretische Konstrukt kaum geeignet ist, nachhaltig zu beschreiben, was eine Aufgabe misst.
Um für ein Leben in der digitalen Gesellschaft vorbereitet zu sein, braucht jeder heute in verschiedenen Situationen umfangreiche informatische Grundlagen. Die Bedeutung von Informatik nimmt nicht nur in immer mehr
Bereichen unseres täglichen Lebens zu, sondern auch in immer mehr Ausbildungsrichtungen. Um junge Menschen auf ihr zukünftiges Leben und/oder ihre zukünftige berufliche Tätigkeit vorzubereiten, bieten verschiedene Hochschulen Informatikmodule für Studierende anderer Fachrichtungen an. Die Materialien jener Kurse bilden einen umfangreichen Datenpool, um die für Studierende anderer Fächer bedeutenden Aspekte der Informatik mithilfe eines empirischen Ansatzes zu identifizieren. Im Folgenden werden 70 Module zu informatischer Bildung für Studierende anderer Fachrichtungen analysiert. Die Materialien – Publikationen, Syllabi und Stundentafeln – werden zunächst mit einer qualitativen Inhaltsanalyse nach Mayring untersucht und anschließend quantitativ ausgewertet. Basierend auf der Analyse werden Ziele, zentrale Themen und Typen eingesetzter Werkzeuge identifiziert.
Was ist Data Science?
(2018)
In Zusammenhang mit den Entwicklungen der vergangenen Jahre, insbesondere in den Bereichen Big Data, Datenmanagement und Maschinenlernen, hat sich der Umgang mit Daten und deren Analyse wesentlich weiterentwickelt. Mittlerweile wird die Datenwissenschaft als eigene Disziplin angesehen, die auch immer stärker durch entsprechende Studiengänge an Hochschulen repräsentiert wird. Trotz dieser zunehmenden Bedeutung ist jedoch oft unklar, welche konkreten Inhalte mit ihr in Verbindung stehen, da sie in verschiedensten Ausprägungen auftritt. In diesem Beitrag werden daher die hinter der Data Science stehenden informatischen Inhalte durch eine qualitative Analyse der Modulhandbücher etablierter Studiengänge aus diesem Bereich ermittelt und so ein Beitrag zur Charakterisierung dieser Disziplin geleistet. Am Beispiel der Entwicklung eines Data-Literacy-Kompetenzmodells, die als Ausblick skizziert wird, wird die Bedeutung dieser Charakterisierung für die weitere Forschung expliziert.
Wahlen
(1998)
Vorlesungs-Pflege
(2018)
Ähnlich zu Alterungsprozessen bei Software degenerieren auch Vorlesungen, wenn sie nicht hinreichend gepflegt werden. Die Gründe hierfür werden ebenso beleuchtet wie mögliche Indikatoren und Maßnahmen – der Blick ist dabei immer der eines Informatikers. An drei Vorlesungen wird erläutert, wie der Degeneration von Lehrveranstaltungen
gegengewirkt werden kann. Mangels hinreichend großer empirischer Daten liefert das Paper keine unumstößlichen Wahrheiten. Ein Ziel ist es vielmehr Kollegen, die ähnliche Phänomene beobachten, einen ersten Anker für einen
inneren Diskurs zu bieten. Ein langfristiges Ziel ist die Sammlung eines Katalogs an Maßnahmen zur Pflege von Informatikvorlesungen.
Untitled
(2005)
In this paper we consider the hypo-ellipticity of differential forms on a closed manifold.The main results show that there are some topological obstruct for the existence of the differential forms with hypoellipticity.
Als Grundlage vieler statistischer Verfahren wird der Prozess der Entstehung von Daten modelliert, um dann weitere Schätz- und Testverfahren anzuwenden. Diese Arbeit befasst sich mit der Frage, wie diese Spezifikation für parametrische Modelle selbst getestet werden kann. In Erweiterung bestehender Verfahren werden Tests mit festem Kern eingeführt und ihre asymptotischen Eigenschaften werden analysiert. Es wird gezeigt, dass die Bestimmung der kritischen Werte mit mehreren Stichprobenwiederholungsverfahren möglich ist. Von diesen ist eine neue Monte-Carlo-Approximation besonders wichtig, da sie die Komplexität der Berechnung deutlich verringern kann. Ein bedingter Kleinste-Quadrate-Schätzer für nichtlineare parametrische Modelle wird definiert und seine wesentlichen asymptotischen Eigenschaften werden hergeleitet. Sämtliche Versionen der Tests und alle neuen Konzepte wurden in Simulationsstudien untersucht, deren wichtigste Resultate präsentiert werden. Die praktische Anwendbarkeit der Testverfahren wird an einem Datensatz zur Produktwahl dargelegt, der mit multinomialen Logit-Modellen analysiert werden soll.
Symmetrie und Quantentheorie
(1995)
Stoffdynamik in Geosystemen
(1995)
Die Reihe 'Stoffdynamik in Geosystemen' hat ihre Wurzeln in der interdisziplinären Projektarbeit der gleichnamigen Arbeitsgruppe. Im ersten Band'Wenn Abwasser die Landschaft verändert...' wurden am Beispiel der Abwasserbodenbehandlung die Probleme diskutiert und dokumentiert, welche aus der Überprägung von Naturräumen durch die Tätigkeit des Menschen resultieren. Im Band 2 'Neue Cocktails nur mit bewährten Rezepten?' wurde über die Weiter-entwicklung der theoretischen und methodischen Ansätze berichtet. Mathematische bzw. geophysikalische Methoden zur Aufklärung von Dynamik bzw. Struktur der Geosysteme bildeten den Gegenstand der 1999 und 2000 erschienen beiden Bände 'Nichtlineare Methoden zur Datenanalyse' bzw. 'Geophysik für Landwirtschaft und Bodenkunde'
Dieser Beitrag zum Band 17 der HISTORY OF MATHEMATICS (Prag 2001) stellt unter den Untertiteln 1. Messung und Stetigkeit 2. Axiomatische Fixierung der euklidischen Geometrie 3. Verallgemeinerung zur Riemannschen Geometrie 4. Liesche Gruppen 5. Diskontinuierliche Bewegungsgruppen 6. Verallgemeinerte diskontinuierliche Bewegungsggruppen eine erweiterte Fassung des gleichlautenden Beitrags zum Sammelband MATHEMATIK-INTERDISZIPLINÄR (Shaker Verlag, Aachen 2000) dar. Da es sich um das Manuskript eines Vortrages am 2. Mai 2001 vor Lehrerbildnern der Karlsuniversität handelt, wird hier zusätzlich die Ersetzung der Stetigkeitsaxiome durch die Axiome des Zirkels, die zur analytischen Geometrie des dreidimensionalen Raumes über einem euklidischen Zahlkörper führt, diskutiert.
In diesem Beitrag zum Sammelband MATHEMATIK -INTERDISZIPLINÄR wird zunächst der lange Weg von den frühen Bedürfnissen nach Messung über das Eudoxos-Archimedische Axiom bis hin zu HIBERTs Axiomen der Stetigkeit skizziert. Neben der Präzisierung der Euklidischen Raumvorstellung muss man sich in diesem Zusammenhang mit den Zweifeln an ihrer ausschließlichen Nutzung in den Anwendungen auseinandersetzen: Über die Begriffe des Hausdorffschen und des topologischen Raumes werden die Begriffe der C^r -Mannigfaltigkeit und des Riemannschen bzw. des pseudo-Riemannschen Raumes vorgestellt; somit sind die mathematischen Grundlagen der Speziellen und der Allgemeinen Relativitätstheorie von EINSTEIN begründet, wobei der Anlass - Konstanz der (Vakuum-) Lichtgeschwindigkeit nach MICHELSON - und der Beitrag von MINKOWSKI zur Geometrisierung der Physik gestreift wird. Die klassische nichteuklidische Geometrie von GAUSS, LOBACEVSKIJ und J. BOLYAI wird ebenso erwähnt wie die didaktisch begründete späte Behandlung der Stetigkeit in der Schule. Die schon für die klassische Differentialgeometrie wichtige dreimal stetige Differenzierbarkeit der betrachteten Funktionen ist Anlaß, das 5. Hilbertsche Problem "LIEs Begriff der kontinuierlichen Transformationsgruppe ohne die Annahme der Differenzierbarkeit der die Gruppe definierenden Funktionen" mit seiner positiven Lösung im 20. Jh. ebenso wie die Theorie der diskontinuierlichen oder gar schwach diskontinuierlichen Gruppen zu reflektieren.
Die vorliegende Diplomarbeit beschäftigt sich mit zwei Aspekten der statistischen Eigenschaften von Clusterverfahren. Zum einen geht die Arbeit auf die Frage der Existenz von unterschiedlichen Clusteranalysemethoden zur Strukturfindung und deren unterschiedlichen Vorgehensweisen ein. Die Methode des Abstandes zwischen Mannigfaltigkeiten und die K-means Methode liefern ausgehend von gleichen Daten unterschiedliche Endclusterungen. Der zweite Teil dieser Arbeit beschäftigt sich näher mit den asymptotischen Eigenschaften des K-means Verfahrens. Hierbei ist die Menge der optimalen Clusterzentren konsistent. Bei Vergrößerung des Stichprobenumfangs gegen Unendlich konvergiert diese in Wahrscheinlichkeit gegen die Menge der Clusterzentren, die das Varianzkriterium minimiert. Ebenfalls konvergiert die Menge der optimalen Clusterzentren für n gegen Unendlich gegen eine Normalverteilung. Es hat sich dabei ergeben, dass die einzelnen Clusterzentren voneinander abhängen.
We consider a class of infinite-dimensional diffusions where the interaction between the components is both spatial and temporal. We start the system from a Gibbs measure with finiterange uniformly bounded interaction. Under suitable conditions on the drift, we prove that there exists t0 > 0 such that the distribution at time t = t0 is a Gibbs measure with absolutely summable interaction. The main tool is a cluster expansion of both the initial interaction and certain time-reversed Girsanov factors coming from the dynamics.
Schwache Kongruenzebenen
(1997)
Schwache Kongruenzebenen
(1996)
Schrägbilder
(1996)
Raum und Form
(2017)
Prozente
(1998)
Poweranalytische Versuchsplanung zur Kontrolle statistischer und softwaretechnischer Relevanz
(1998)
Audience Response Systeme (ARS) stellen eine Ergänzung der Hochschullehre dar, um die Teilnehmeraktivierung zu stärken und die Studierenden unmittelbar in das Vorlesungsgeschehen einzubinden. Es existiert eine Fülle an Lösungen, die entweder ohne dedizierte Hardware auskommen (sogenannte Software-Clicker) oder die Anschaffung meist kommerzieller Hardware- Lösungen voraussetzen. An dieser Stelle versucht Hands. UP eine integrative Brücke zu schlagen. Auf Grundlage einer Kosten- und Aufwandsschätzung ausgewählter ARS-Lösungen soll die Notwendigkeit hochschulübergreifender Kooperationen hinsichtlich einer adäquate Weiterentwicklung und des Einsatzes von ARS in der Lehre motiviert werden.
Polyominos und Puzzles
(1997)
Aus dem Inhalt: Inhaltsverzeichnis Abbildungsverzeichnis Tabellenverzeichnis 1 Einleitung und Motivation 2 Multivariate Copulafunktionen 2.1 Einleitung 2.2 Satz von Sklar 2.3 Eigenschaften von Copulafunktionen 3 Abhängigkeitskonzepte 3.1 Lineare Korrelation 3.2 Copulabasierte Abhängigkeitsmaße 3.2.1 Konkordanz 3.2.2 Kendall’s und Spearman’s 3.2.3 Asymptotische Randabhängigkeit 4 Elliptische Copulaklasse 4.1 Sphärische und elliptische Verteilungen 4.2 Normal-Copula 4.3 t-Copula 5 Parametrische Schätzverfahren 5.1 Maximum-Likelihood-Methode 5.1.1 ExakteMaximum-Likelihood-Methode 5.1.2 2-stufige parametrische Maximum-Likelihood-Methode 5.1.3 2-stufige semiparametrische Maximum-Likelihood-Methode 5.2 Momentenmethode 5.3 Kendall’s -Momentenmethode 6 Parameterschätzungen für Normal- und t-Copula 6.1 Normal-Copula 6.1.1 Maximum-Likelihood-Methode 6.1.2 Momentenmethode 6.1.3 Kendall’s Momentenmethode 6.1.4 Spearman’s Momentenmethode 6.2 t-Copula 6.2.1 Verfahren 1 (exakte ML-Methode) 6.2.2 Verfahren 2 (2-stufige rekursive ML-Methode) 6.2.3 Verfahren 3 (2-stufige KM-ML-Methode) 6.2.4 Verfahren 4 (3-stufige M-ML-Methode) 7 Simulationen 7.1 Grundlagen 7.2 Parametrischer Fall 7.3 Nichtparametrischer Fall 7.4 Fazit A Programmausschnitt Literaturverzeichnis
Packungen aus Kreisscheiben
(2019)
Der englische Seefahrer Sir Walter Raleigh fragte sich einst, wie er in seinem Schiffsladeraum moeglichst viele Kanonenkugeln stapeln koennte. Johannes Kepler entwickelte daraufhin 1611 eine Vermutung ueber die optimale Anordnung der Kugeln. Diese Vermutung sollte sich als eine der haertesten mathematischen Nuesse der Geschichte erweisen. Selbst in der Ebene sind dichteste Packungen kongruenter Kreise eine Herausforderung. 1892 und 1910 veroeffentlichte Axel Thue (kritisierte) Beweise, dass die hexagonale Kreispackung optimal sei. Erst 1940 lieferte Laszlo Fejes Toth schliesslich einen wasserdichten Beweis fuer diese Tatsache. Eine Variante des Problems verlangt,
Packungen mit endlich vielen kongruenten Kugeln zu finden, die eine gewisse quadratische Energie minimieren: Diese spannende geometrische Aufgabe wurde 1967 von Toth gestellt. Sie ist auch heute noch nicht vollstaendig gelaest. In diesem Beitrag schlagen die Autorinnen eine originelle wahrscheinlichkeitstheoretische Methode vor, um in der Ebene Näherungen der Lösung zu konstruieren.
OSTWALD-Muster und Parkette - Anregungen aus der Diskreten Geometrie für den Mathematikunterricht
(1997)
OSTWALD-Muster und Parkette - Anregungen aus der Diskreten Geometrie für den Mathematikunterricht
(1997)
Osnovi na Aritmetikata
(1999)
Optimal (und) begründet
(2002)