Extern
Refine
Has Fulltext
- yes (81)
Year of publication
- 2013 (81) (remove)
Document Type
- Article (69)
- Monograph/Edited Volume (4)
- Doctoral Thesis (4)
- Conference Proceeding (2)
- Master's Thesis (1)
- Other (1)
Keywords
- ISSEP (2)
- Informatics Education (2)
- 3DCityDB (1)
- AGN (1)
- Adaptive hypermedia (1)
- Aktiven Galaxienkerne (1)
- Anpassung (1)
- Antarctica (1)
- Antarktis (1)
- Arnos Padiri (1)
- Bachmann (1)
- Boden (1)
- CS Ed Research (1)
- CS at school (1)
- CS curriculum (1)
- CityGML (1)
- Citymodel (1)
- Comparing programming environments (1)
- Course of Study (1)
- Database (1)
- Datenbank (1)
- Durchmusterung (1)
- Döntje (1)
- Ecology (1)
- Ecotoxicology (1)
- Forstwirtschaft (1)
- Friedrich (1)
- General subject “Information” (1)
- Gletschervorfeld (1)
- Grammatica (1)
- Grandonica (1)
- Hans (1)
- Hanxleden (1)
- Hebbel (1)
- Holtorf (1)
- ICT (1)
- ICT curriculum (1)
- Impakt (1)
- Information Ethics (1)
- Klimawandel (1)
- Kriminalpolitik (1)
- Kultivierung (1)
- Lern-Infrastruktur (1)
- Luhnstedt (1)
- Mann (1)
- Mobiles Lernen (1)
- Muttergalaxien (1)
- Navigation (1)
- Nikolaus (1)
- Partizipatives Lernen (1)
- Peer Instruction (1)
- Populationsdynamik (1)
- PostGIS (1)
- Primary informatics (1)
- Problem solving (1)
- Problem solving strategies (1)
- Programming environments for children (1)
- Programming learning (1)
- Pytho n (1)
- Rechtsvergleichung (1)
- Rechtswissenschaft (1)
- Romantheorie (1)
- Romanticism (1)
- Romantik (1)
- Sanskrit (1)
- Scientific understanding of Information (1)
- Stadtmodell (1)
- Status und Aufgaben des Verfassungsgerichts (1)
- Teaching problem solving strategies (1)
- Thomas (1)
- Thomas / Der Zauberberg (1)
- Thomas / Versuch über das Theater (1)
- Trajectories (1)
- Verfassungsgericht (1)
- Verfassungsgerichtsbarkeit (1)
- Vulnerabilität (1)
- Wirtschaftsstrafrecht (1)
- adaptation (1)
- anecdote (1)
- climate change (1)
- collaboration (1)
- competence (1)
- computational thinking (1)
- computer science (1)
- computing science education (1)
- concept of algorithm (1)
- constructionism (1)
- cultivation (1)
- deutsches und russisches Strafrecht (1)
- engaged computing (1)
- forestry (1)
- general secondary education (1)
- glacier forefield (1)
- host galaxies (1)
- impact (1)
- informatics curricula (1)
- informatics education (1)
- informatics in upper secondary education (1)
- instruction (1)
- international comparison (1)
- international study (1)
- lesson (1)
- logic programming (1)
- mandatory computer science foundations (1)
- microbial communities (1)
- mikrobielle Gemeinschaften (1)
- misconceptions (1)
- population dynamics (1)
- primary school (1)
- science (1)
- situated learning (1)
- social networking (1)
- soil (1)
- sorting (1)
- spreadsheets (1)
- survey (1)
- teacher (1)
- teacher education (1)
- teacher training (1)
- teaching material (1)
- test items (1)
- theory of the novel (1)
- topics (1)
- verfassungsgerichtliche Kontrolle (1)
- vulnerability (1)
- Ökologie (1)
- Ökotoxikologie (1)
Institute
- Extern (81) (remove)
Bei der hier vorgestellten Anwendung handelt es sich um den Prototypen einer webbasierten Applikation zur Analyse von Nutzungsdaten der AnwenderInnen von eLearning-Angeboten. Die Applikation wurde dabei explizit für unterschiedliche Zielgruppen wie eLearning-AnbieterInnen, Lehrende und WissenschaftlerInnen entworfen. Die Anwendung kann Daten verschiedener Lernplattformen auswerten und nutzt hierbei Methoden des Educational Data Mining. Sie unterstützt dabei sowohl klassische Plattformen mit personalisiertem Zugang sowie offene Plattformen, deren Angebote ohne Registrierung zugänglich sind.
Im Hochschulalltag begegnen sich Dozenten und Studenten als zwei Gruppen mit entgegengesetzten Rollen, z.B. als Lehrende und Lernende, als Forscher und studentische Hilfskräfte. Die Berührungspunkte beider Gruppen eröffnen neue Chancen im Student Life Cycle für zielgerichtete Kooperationen – von der Studierende für Entscheidungsprozesse im Fortgang ihres Studiums und Dozenten für die Gewinnung von Masterstudenten und Doktoranden profitieren können. Kein E-Learning im klassischen Sinn, aber eine praktische Anwendung von Empfehlungstechniken auf Basis eines Campus Management Systems werden Posterbeitrag und Live-Demo vorstellen, mit der zur Zeit verschiedene Zielrichtungen für die Empfehlung von Wahlmodulen und eine kohorten-basierte Informationsaufbereitung im Curricula Support experimentell untersucht werden.
LatteMATHEiato
(2013)
Eine zentrale Schwierigkeit des Lehrens an einer Hochschule besteht in der Heterogenität des Vorwissens der Studierenden. Vor dem Hintergrund, dass jedoch gerade das Vorwissen als einer der stärksten Prädiktoren des Lernerfolgs gilt (Hasselhorn, M., & Gold, A. (2009)), stellt sich die Frage, wie man diese Vorwissensunterschiede der Studienanfänger nivellieren kann. Dieser Bericht zeigt auf, welchen Versuch die Hochschule Furtwangen University (HFU) unternimmt, dem unterschiedlichen Vorwissen der Studierenden im Bereich der Mathematik- Grundlagenveranstaltungen durch medial aufbereitetes Selbstlernmaterial zu begegnen.
Das Projekt „Support for E-Learning“ (SupEr) fokussierte auf die dauerhafte Sicherung eines an der Fachhochschule verankerten Unterstützungsangebotes für Lehrende und Studierende in den Bereichen online-gestützte Lehrveranstaltungen und Veranstaltungsaufzeichnungen (E-Learning). Da dauerhafte personelle Ressourcen an der Fachhochschule begrenzt sind, erprobte das Projekt eine E-Learning Supportstruktur mit Hilfe von Studierenden. Das Supportkonzept betonte die Beratung von Professor/inn/en durch studentische Mitarbeiter/innen und unterschied sich dadurch von Konzepten anderer deutscher Hochschulen.
Der Artikel über das Projekt eTeam der Stabsstelle eLearning stellt einen reinen Praxisbericht dar und befasst sich zunächst mit der Idee, die zur Entwicklung des Vorhabens führte, in dem studentische eLearning-Expertinnen und -Experten Lehrende bei der Umsetzung von Online-Elementen in Lehrveranstaltungen unterstützen. Mit drei Teams in verschiedenen Fakultäten, jeweils bestehend aus zwei studentischen Mitarbeitenden, machte sich das Projekt im Sommersemester (SoSe) 2010 auf den Weg, praktisch an der Ruhr-Universität Bochum (RUB) ausgeführt zu werden. Die Projektvorbereitungen, Erfahrungen aus dem Pilotdurchgang sowie die Sicht der Fakultäten auf das Konzept und den aktuellen Projektstand werden in diesem Artikel beleuchtet und thematisiert.
Der vorliegende Artikel befasst sich mit Adventure-based Learning, einer digitalen, spielbasierten Lernmethode. Das Ziel derartiger Anwendungen ist es, Motivation und Begeisterung der Lernenden zu stimulieren und dadurch Lernprozesse zu unterstützen. Die Frage, inwiefern Adventure-based Learning tatsächlich lernförderliche Mehrwerte induziert, wird anhand einer Fallstudie im Kontext betrieblicher Weiterbildung untersucht. Hierzu wird ein Experiment mit 40 Probanden durchgeführt, in der eine Adventure-based Learning-Anwendung mit einer interaktiven Powerpoint-Präsentation verglichen wird. Die Ergebnisse der Untersuchung deuten darauf hin, dass viele Lernende sich Lernprogramme wünschen, die weniger textlastig sind und mit Adventure-based Learning eine vergleichbare Behaltensleistung erreicht wird.
Einsatz mobiler Endgeräte zur Verbesserung der Lehrqualität in universitären Großveranstaltungen
(2013)
Im vorliegenden Beitrag wird gezeigt, wie mit Hilfe mobiler Endgeräte von Studierenden und einer geeigneten technischen Infrastruktur auch in sehr großen Lehrveranstaltungen mit mehreren hundert Studierenden Lerneraktivierende, kooperative Lernprozesse initiiert werden können. Der Artikel stellt das bereits etablierte methodisch-didaktische Konzept der ‚Peer Instruction‘ (PI) vor, referiert Erkenntnisse zu dessen Lernwirksamkeit und weist auf dessen Einsatzmöglichkeiten in Informatik- und wirtschaftswissenschaftlichen Veranstaltungen hin. Die Architektur sowie die Funktionalität der webbasierten Clients von Studierenden und Dozenten werden erörtert. Erste Evaluationsergebnisse zum Praxiseinsatz dieses Konzepts mit der an der Universität Paderborn entwickelten technischen Infrastruktur werden beschrieben und Perspektiven der Weiterentwicklung des Systems vorgestellt.
There are two common approaches to implement a virtual machine (VM) for a dynamic object-oriented language. On the one hand, it can be implemented in a C-like language for best performance and maximum control over the resulting executable. On the other hand, it can be implemented in a language such as Java that allows for higher-level abstractions. These abstractions, such as proper object-oriented modularization, automatic memory management, or interfaces, are missing in C-like languages but they can simplify the implementation of prevalent but complex concepts in VMs, such as garbage collectors (GCs) or just-in-time compilers (JITs). Yet, the implementation of a dynamic object-oriented language in Java eventually results in two VMs on top of each other (double stack), which impedes performance. For statically typed languages, the Maxine VM solves this problem; it is written in Java but can be executed without a Java virtual machine (JVM). However, it is currently not possible to execute dynamic object-oriented languages in Maxine. This work presents an approach to bringing object models and execution models of dynamic object-oriented languages to the Maxine VM and the application of this approach to Squeak/Smalltalk. The representation of objects in and the execution of dynamic object-oriented languages pose certain challenges to the Maxine VM that lacks certain variation points necessary to enable an effortless and straightforward implementation of dynamic object-oriented languages' execution models. The implementation of Squeak/Smalltalk in Maxine as a feasibility study is to unveil such missing variation points.
Verfassungsgerichtsbarkeit in der Russischen Föderation und in der Bundesrepublik Deutschland
(2013)
Der Tagungsband enthält die Referate und Diskussionsbeiträge des in Moskau an der Staatlichen Juristischen Kutafin-Universität am 9. und 10. Oktober 2012 durchgeführten Rundtischgespräches zur Verfassungsgerichtsbarkeit. Behandelt werden ausgewählte rechtshistorische und -politische Fragen sowie aktuelle rechtliche Probleme der Verfassungsgerichtsbarkeit in der Russischen Föderation und der Bundesrepublik Deutschland sowohl aus der Sicht der Rechtspraxis als auch der Wissenschaft: insbesondere die Entwicklung der Verfassungsgerichtsbarkeit in Geschichte und Gegenwart, Status, Rechtsnatur und Aufgaben des Verfassungsgerichts in den Subjekten der Föderation und in den Ländern sowie Verfassungsgericht und Gesetzgebung. Zudem werden Spezialfragen der Verfassungsgerichtsbarkeit erörtert, z.B. die Institution des Bevollmächtigten Vertreters des Präsidenten im Verfassungsgericht in Russland, der Eilrechtsschutz durch das BVerfG und der Rechtsschutz bei überlangen Verfahren vor dem BVerfG in Deutschland.
Antarctic glacier forfields are extreme environments and pioneer sites for ecological succession. The Antarctic continent shows microbial community development as a natural laboratory because of its special environment, geographic isolation and little anthropogenic influence. Increasing temperatures due to global warming lead to enhanced deglaciation processes in cold-affected habitats and new terrain is becoming exposed to soil formation and accessible for microbial colonisation. This study aims to understand the structure and development of glacier forefield bacterial communities, especially how soil parameters impact the microorganisms and how those are adapted to the extreme conditions of the habitat. To this effect, a combination of cultivation experiments, molecular, geophysical and geochemical analysis was applied to examine two glacier forfields of the Larsemann Hills, East Antarctica. Culture-independent molecular tools such as terminal restriction length polymorphism (T-RFLP), clone libraries and quantitative real-time PCR (qPCR) were used to determine bacterial diversity and distribution. Cultivation of yet unknown species was carried out to get insights in the physiology and adaptation of the microorganisms. Adaptation strategies of the microorganisms were studied by determining changes of the cell membrane phospholipid fatty acid (PLFA) inventory of an isolated bacterium in response to temperature and pH fluctuations and by measuring enzyme activity at low temperature in environmental soil samples. The two studied glacier forefields are extreme habitats characterised by low temperatures, low water availability and small oligotrophic nutrient pools and represent sites of different bacterial succession in relation to soil parameters. The investigated sites showed microbial succession at an early step of soil formation near the ice tongue in comparison to closely located but rather older and more developed soil from the forefield. At the early step the succession is influenced by a deglaciation-dependent areal shift of soil parameters followed by a variable and prevalently depth-related distribution of the soil parameters that is driven by the extreme Antarctic conditions. The dominant taxa in the glacier forefields are Actinobacteria, Acidobacteria, Proteobacteria, Bacteroidetes, Cyanobacteria and Chloroflexi. The connection of soil characteristics with bacterial community structure showed that soil parameter and soil formation along the glacier forefield influence the distribution of certain phyla. In the early step of succession the relative undifferentiated bacterial diversity reflects the undifferentiated soil development and has a high potential to shift according to past and present environmental conditions. With progressing development environmental constraints such as water or carbon limitation have a greater influence. Adapting the culturing conditions to the cold and oligotrophic environment, the number of culturable heterotrophic bacteria reached up to 108 colony forming units per gram soil and 148 isolates were obtained. Two new psychrotolerant bacteria, Herbaspirillum psychrotolerans PB1T and Chryseobacterium frigidisoli PB4T, were characterised in detail and described as novel species in the family of Oxalobacteraceae and Flavobacteriaceae, respectively. The isolates are able to grow at low temperatures tolerating temperature fluctuations and they are not specialised to a certain substrate, therefore they are well-adapted to the cold and oligotrophic environment. The adaptation strategies of the microorganisms were analysed in environmental samples and cultures focussing on extracellular enzyme activity at low temperature and PLFA analyses. Extracellular phosphatases (pH 11 and pH 6.5), β-glucosidase, invertase and urease activity were detected in the glacier forefield soils at low temperature (14°C) catalysing the conversion of various compounds providing necessary substrates and may further play a role in the soil formation and total carbon turnover of the habitat. The PLFA analysis of the newly isolated species C. frigidisoli showed that the cold-adapted strain develops different strategies to maintain the cell membrane function under changing environmental conditions by altering the PLFA inventory at different temperatures and pH values. A newly discovered fatty acid, which was not found in any other microorganism so far, significantly increased at decreasing temperature and low pH and thus plays an important role in the adaption of C. frigidisoli. This work gives insights into the diversity, distribution and adaptation mechanisms of microbial communities in oligotrophic cold-affected soils and shows that Antarctic glacier forefields are suitable model systems to study bacterial colonisation in connection to soil formation.
Der Täter hinter dem Täter
(2013)
Strafbarkeit des Bannbruchs
(2013)
Der vorliegende 3. Band der „Schriften zum deutschen und russischen Strafrecht“ enthält die Vorträge, die an dem „Internationalen rechtsvergleichenden Runden Tisch zu aktuellen Themen des deutschen und russischen Strafrechts“, der am 18. Dezember 2012 an der Juristischen Fakultät der Universität Potsdam stattgefunden hat, gehalten wurden. Die Beiträge der Wissenschaftler und Praktiker aus Russland und Deutschland decken ein breites Spektrum an Themen ab, die in beiden Ländern von Interesse sind. In den Band aufgenommen wurden zudem der Festvortrag von Prof. Dr. Rarog zum Tag der Juristischen Fakultät der Universität Potsdam am 20. Juni 2012, ein Beitrag von Prof. Dr. Matskevich sowie ein weiterer Aufsatz von Prof. Dr. Rarog und Dr. Nagaeva. Die Publikation der Beiträge in deutscher und russischer Sprache ermöglicht den Lesern in beiden Ländern die Lektüre in der jeweiligen Muttersprache.
In the context of ecological risk assessment of chemicals, individual-based population models hold great potential to increase the ecological realism of current regulatory risk assessment procedures. However, developing and parameterizing such models is time-consuming and often ad hoc. Using standardized, tested submodels of individual organisms would make individual-based modelling more efficient and coherent. In this thesis, I explored whether Dynamic Energy Budget (DEB) theory is suitable for being used as a standard submodel in individual-based models, both for ecological risk assessment and theoretical population ecology. First, I developed a generic implementation of DEB theory in an individual-based modeling (IBM) context: DEB-IBM. Using the DEB-IBM framework I tested the ability of the DEB theory to predict population-level dynamics from the properties of individuals. We used Daphnia magna as a model species, where data at the individual level was available to parameterize the model, and population-level predictions were compared against independent data from controlled population experiments. We found that DEB theory successfully predicted population growth rates and peak densities of experimental Daphnia populations in multiple experimental settings, but failed to capture the decline phase, when the available food per Daphnia was low. Further assumptions on food-dependent mortality of juveniles were needed to capture the population dynamics after the initial population peak. The resulting model then predicted, without further calibration, characteristic switches between small- and large-amplitude cycles, which have been observed for Daphnia. We conclude that cross-level tests help detecting gaps in current individual-level theories and ultimately will lead to theory development and the establishment of a generic basis for individual-based models and ecology. In addition to theoretical explorations, we tested the potential of DEB theory combined with IBMs to extrapolate effects of chemical stress from the individual to population level. For this we used information at the individual level on the effect of 3,4-dichloroanailine on Daphnia. The individual data suggested direct effects on reproduction but no significant effects on growth. Assuming such direct effects on reproduction, the model was able to accurately predict the population response to increasing concentrations of 3,4-dichloroaniline. We conclude that DEB theory combined with IBMs holds great potential for standardized ecological risk assessment based on ecological models.
Thomas Mann und die Romantik
(2013)
Essay über Thomas Mann, sein Verhältnis zur Romantik und die romantischen Elemente in seinem Werk. Die Gliederung des Textes folgt mit sieben Abschnitten dem Vorbild des "Zauberberg" (1924), der eine wichtige Rolle in Peters' Ausführungen spielt. Kommentare zu Thomas Manns Bildungsroman sind eingebettet in Betrachtungen zu der Polarität von Klassik und Romantik oder zu Künstlertum und Bürgertum. Der 4. Abschnitt des Essays befasst sich mit den "himmelblauen" Vorurteilen zur Romantik und hebt die ganzheitliche Weltkonzeption der Romantiker hervor sowie deren humanistisch geprägtes, am Universalmenschen der Renaissance orientiertes Bildungsideal. Das Manuskript von "Thomas Mann und die Romantik" befindet sich im zweiten Heft des Manuskriptes von "Heine Steenhagen wöll ju dat wiesen!" und steht in einem metadiskursiven Verhältnis zu Peters' parodistischem Bildungsroman: im 7. und letzten Kapitel seines Essays befasst sich Peters mit Romantheorie auf der Grundlage von Zitaten aus Novalis und Thomas Mann ("Versuch über das Theater"). Er unterstreicht hier zentrale Merkmale des Bildungsromans und entwickelt so die Poetik zu "Heine Steenhagen".
Die Anpassung von Sektoren an veränderte klimatische Bedingungen erfordert ein Verständnis von regionalen Vulnerabilitäten. Vulnerabilität ist als Funktion von Sensitivität und Exposition, welche potentielle Auswirkungen des Klimawandels darstellen, und der Anpassungsfähigkeit von Systemen definiert. Vulnerabilitätsstudien, die diese Komponenten quantifizieren, sind zu einem wichtigen Werkzeug in der Klimawissenschaft geworden. Allerdings besteht von der wissenschaftlichen Perspektive aus gesehen Uneinigkeit darüber, wie diese Definition in Studien umgesetzt werden soll. Ausdiesem Konflikt ergeben sich viele Herausforderungen, vor allem bezüglich der Quantifizierung und Aggregierung der einzelnen Komponenten und deren angemessenen Komplexitätsniveaus. Die vorliegende Dissertation hat daher zum Ziel die Anwendbarkeit des Vulnerabilitätskonzepts voranzubringen, indem es in eine systematische Struktur übersetzt wird. Dies beinhaltet alle Komponenten und schlägt für jede Klimaauswirkung (z.B. Sturzfluten) eine Beschreibung des vulnerablen Systems vor (z.B. Siedlungen), welches direkt mit einer bestimmten Richtung eines relevanten klimatischen Stimulus in Verbindung gebracht wird (z.B. stärkere Auswirkungen bei Zunahme der Starkregentage). Bezüglich der herausfordernden Prozedur der Aggregierung werden zwei alternative Methoden, die einen sektorübergreifenden Überblick ermöglichen, vorgestellt und deren Vor- und Nachteile diskutiert. Anschließend wird die entwickelte Struktur einer Vulnerabilitätsstudie mittels eines indikatorbasierten und deduktiven Ansatzes beispielhaft für Gemeinden in Nordrhein-Westfalen in Deutschland angewandt. Eine Übertragbarkeit auf andere Regionen ist dennoch möglich. Die Quantifizierung für die Gemeinden stützt sich dabei auf Informationen aus der Literatur. Da für viele Sektoren keine geeigneten Indikatoren vorhanden waren, werden in dieser Arbeit neue Indikatoren entwickelt und angewandt, beispielsweise für den Forst- oder Gesundheitssektor. Allerdings stellen fehlende empirische Daten bezüglich relevanter Schwellenwerte eine Lücke dar, beispielsweise welche Stärke von Klimaänderungen eine signifikante Auswirkung hervorruft. Dies führt dazu, dass die Studie nur relative Aussagen zum Grad der Vulnerabilität jeder Gemeinde im Vergleich zum Rest des Bundeslandes machen kann. Um diese Lücke zu füllen, wird für den Forstsektor beispielhaft die heutige und zukünftige Sturmwurfgefahr von Wäldern berechnet. Zu diesem Zweck werden die Eigenschaften der Wälder mit empirischen Schadensdaten eines vergangenen Sturmereignisses in Verbindung gebracht. Der sich daraus ergebende Sensitivitätswert wird anschließend mit den Windverhältnissen verknüpft. Sektorübergreifende Vulnerabilitätsstudien erfordern beträchtliche Ressourcen, was oft deren Anwendbarkeit erschwert. In einem nächsten Schritt wird daher das Potential einer Vereinfachung der Komplexität anhand zweier sektoraler Beispiele untersucht. Um das Auftreten von Waldbränden vorherzusagen, stehen zahlreiche meteorologische Indices zur Verfügung, welche eine Spannbreite unterschiedlicher Komplexitäten aufweisen. Bezüglich der Anzahl monatlicher Waldbrände weist die relative Luftfeuchtigkeit für die meisten deutschen Bundesländer eine bessere Vorhersagekraft als komplexere Indices auf. Dies ist er Fall, obgleich sie selbst als Eingangsvariable für die komplexeren Indices verwendet wird. Mit Hilfe dieses einzelnen meteorologischen Faktors kann also die Waldbrandgefahr in deutschen Region ausreichend genau ausgedrückt werden, was die Ressourceneffizienz von Studien erhöht. Die Methodenkomplexität wird auf ähnliche Weise hinsichtlich der Anwendung des ökohydrologischen Modells SWIM für die Region Brandenburg untersucht. Die interannuellen Bodenwasserwerte, welche durch dieses Modell simuliert werden, können nur unzureichend durch ein einfacheres statistisches Modell, welches auf denselben Eingangsdaten aufbaut, abgebildet werden. Innerhalb eines Zeithorizonts von Jahrzehnten, kann der statistische Ansatz jedoch das Bodenwasser zufriedenstellend abbilden und zeigt eine Dominanz der Bodeneigenschaft Feldkapazität. Dies deutet darauf hin, dass die Komplexität im Hinblick auf die Anzahl der Eingangsvariablen für langfristige Berechnungen reduziert werden kann. Allerdings sind die Aussagen durch fehlende beobachtete Bodenwasserwerte zur Validierung beschränkt. Die vorliegenden Studien zur Vulnerabilität und ihren Komponenten haben gezeigt, dass eine Anwendung noch immer wissenschaftlich herausfordernd ist. Folgt man der hier verwendeten Vulnerabilitätsdefinition, treten zahlreiche Probleme bei der Implementierung in regionalen Studien auf. Mit dieser Dissertation wurden Fortschritte bezüglich der aufgezeigten Lücken bisheriger Studien erzielt, indem eine systematische Struktur für die Beschreibung und Aggregierung von Vulnerabilitätskomponenten erarbeitet wurde. Hierfür wurden mehrere Ansätze diskutiert, die jedoch Vor- und Nachteile besitzen. Diese sollten vor der Anwendung von zukünftigen Studien daher ebenfalls sorgfältig abgewogen werden. Darüber hinaus hat sich gezeigt, dass ein Potential besteht einige Ansätze zu vereinfachen, jedoch sind hierfür weitere Untersuchungen nötig. Insgesamt konnte die Dissertation die Anwendung von Vulnerabilitätsstudien als Werkzeug zur Unterstützung von Anpassungsmaßnahmen stärken.
Grammatica Grandonica
(2013)
In May 2010, Johann Ernst Hanxleden’s Grammatica Grandonica was rediscovered in Montecompatri (Lazio, Rome). Although historiographers attached much weight to the nearly oldest western grammar of Sanskrit, the precious manuscript was lost for several decades. The first aim of the present digital publication is to offer a photographical reproduction of the manuscript. This facsimile is accompanied by a double edition: a facing diplomatic edition with the Sanskrit in Malayāḷam script, followed by a transliterated established text.
This thesis rests on two large Active Galactic Nuclei (AGNs) surveys. The first survey deals with galaxies that host low-level AGNs (LLAGN) and aims at identifying such galaxies by quantifying their variability. While numerous studies have shown that AGNs can be variable at all wavelengths, the nature of the variability is still not well understood. Studying the properties of LLAGNs may help to understand better galaxy evolution, and how AGNs transit between active and inactive states. In this thesis, we develop a method to extract variability properties of AGNs. Using multi-epoch deep photometric observations, we subtract the contribution of the host galaxy at each epoch to extract variability and estimate AGN accretion rates. This pipeline will be a powerful tool in connection with future deep surveys such as PANSTARS. The second study in this thesis describes a survey of X-ray selected AGN hosts at redshifts z>1.5 and compares them to quiescent galaxies. This survey aims at studying environments, sizes and morphologies of star-forming high-redshift AGN hosts in the COSMOS Survey at the epoch of peak AGN activity. Between redshifts 1.5<z<3.8, the COSMOS HST/ACS imaging probes the UV regime, where separating the AGN flux from its host galaxy is very challenging. Nevertheless, we successfully derived the structural properties of 249 AGN hosts using two-dimensional surface-brightness profile fitting with the GALFIT package. This is the largest sample of AGN hosts at redshift z>1.5 to date. We analyzed the evolution of structural parameters of AGN and non-AGN host galaxies with redshift, and compared their disturbance rates to identify the more probable AGN triggering mechanism in the 43.5<log_10 L_X<45 luminosity range. We also conducted mock AGN and quiescent galaxies observations to determine errors and corrections for the derived parameters. We find that the size-absolute magnitude relations of AGN hosts and non-AGN galaxies are very similar, with estimated mean sizes in both samples decreasing by ~50% between redshifts z=1.5 and z=3.5. Morphological classification of both active and quiescent galaxies shows that the majority of the AGN host galaxies are disc-dominated, with disturbance rates that are significantly lower than among the non-AGN galaxies. Such a finding suggests that Major Mergers are probably not responsible for triggering AGN accretion in most of these galaxies. Other secular mechanisms should therefore be responsible.
The challenge is providing teachers with the resources they need to strengthen their instructions and better prepare students for the jobs of the 21st Century. Technology can help meet the challenge. Teachers’ Tryscience is a noncommercial offer, developed by the New York Hall of Science, TeachEngineering, the National Board for Professional Teaching Standards and IBM Citizenship to provide teachers with such resources. The workshop provides deeper insight into this tool and discussion of how to support teaching of informatics in schools.
.NET Gadgeteer Workshop
(2013)
Problem solving is one of the central activities performed by computer scientists as well as by computer science learners. Whereas the teaching of algorithms and programming languages is usually well structured within a curriculum, the development of learners’ problem-solving skills is largely implicit and less structured. Students at all levels often face difficulties in problem analysis and solution construction. The basic assumption of the workshop is that without some formal instruction on effective strategies, even the most inventive learner may resort to unproductive trial-and-error problemsolving processes. Hence, it is important to teach problem-solving strategies and to guide teachers on how to teach their pupils this cognitive tool. Computer science educators should be aware of the difficulties and acquire appropriate pedagogical tools to help their learners gain and experience problem-solving skills.
A method is presented of acquiring the principles of three sorting algorithms through developing interactive applications in Excel.
We present a concept of better integration of practical teaching in student teacher education in Computer Science. As an introduction to the workshop different possible scenarios are discussed on the basis of examples. Afterwards workshop participants will have the opportunity to discuss the application of the aconcepts in other settings.
In this paper we report on our experiments in teaching computer science concepts with a mix of tangible and abstract object manipulations. The goal we set ourselves was to let pupils discover the challenges one has to meet to automatically manipulate formatted text. We worked with a group of 25 secondary school pupils (9-10th grade), and they were actually able to “invent” the concept of mark-up language. From this experiment we distilled a set of activities which will be replicated in other classes (6th grade) under the guidance of maths teachers.
Informatics as a school subject has been virtually absent from bilingual education programs in German secondary schools. Most bilingual programs in German secondary education started out by focusing on subjects from the field of social sciences. Teachers and bilingual curriculum experts alike have been regarding those as the most suitable subjects for bilingual instruction – largely due to the intercultural perspective that a bilingual approach provides. And though one cannot deny the gain that ensues from an intercultural perspective on subjects such as history or geography, this benefit is certainly not limited to social science subjects. In consequence, bilingual curriculum designers have already begun to include other subjects such as physics or chemistry in bilingual school programs. It only seems a small step to extend this to informatics. This paper will start out by addressing potential benefits of adding informatics to the range of subjects taught as part of English-language bilingual programs in German secondary education. In a second step it will sketch out a methodological (= didactical) model for teaching informatics to German learners through English. It will then provide two items of hands-on and tested teaching material in accordance with this model. The discussion will conclude with a brief outlook on the chances and prerequisites of firmly establishing informatics as part of bilingual school curricula in Germany.
We shall examine the Pedagogical Content Knowledge (PCK) of Computer Science (CS) teachers concerning students’ Computational Thinking (CT) problem solving skills within the context of a CS course in Dutch secondary education and thus obtain an operational definition of CT and ascertain appropriate teaching methodology. Next we shall develop an instrument to assess students’ CT and design a curriculum intervention geared toward teaching and improving students’ CT problem solving skills and competences. As a result, this research will yield an operational definition of CT, knowledge about CT PCK, a CT assessment instrument and teaching materials and accompanying teacher instructions. It shall contribute to CS teacher education, development of CT education and to education in other (STEM) subjects where CT plays a supporting role, both nationally and internationally.
We launched an original large-scale experiment concerning informatics learning in French high schools. We are using the France-IOI platform to federate resources and share observation for research. The first step is the implementation of an adaptive hypermedia based on very fine grain epistemic modules for Python programming learning. We define the necessary traces to be built in order to study the trajectories of navigation the pupils will draw across this hypermedia. It may be browsed by pupils either as a course support, or an extra help to solve the list of exercises (mainly for algorithmics discovery). By leaving the locus of control to the learner, we want to observe the different trajectories they finally draw through our system. These trajectories may be abstracted and interpreted as strategies and then compared for their relative efficiency. Our hypothesis is that learners have different profiles and may use the appropriate strategy accordingly. This paper presents the research questions, the method and the expected results.
The traditional purpose of algorithm in education is to prepare students for programming. In our effort to introduce the practically missing computing science into Czech general secondary education, we have revisited this purpose.We propose an approach, which is in better accordance with the goals of general secondary education in Czechia. The importance of programming is diminishing, while recognition of algorithmic procedures and precise (yet concise) communication of algorithms is gaining importance. This includes expressing algorithms in natural language, which is more useful for most of the students than programming. We propose criteria to evaluate such descriptions. Finally, an idea about the limitations is required (inefficient algorithms, unsolvable problems, Turing’s test). We describe these adjusted educational goals and an outline of the resulting course. Our experience with carrying out the proposed intentions is satisfactory, although we did not accomplish all the defined goals.
Japan launched the new Course of Study in April 2012, which has been carried out in elementary schools and junior high schools. It will also be implemented in senior high schools from April 2013. This article presents an overview of the information studies education in the new Course of Study for K-12. Besides, the authors point out what role experts of informatics and information studies education should play in the general education centered around information studies that is meant to help people of the nation to lead an active, powerful, and flexible life until the satisfying end.
This article is a summary of the work carried out by the Ministry of Education in Turkey, in terms of the development of a new ICT Curriculum, together with the e-Training of teachers who will play an important role in the forthcoming pilot study. Based on recent literature on the topic, the article starts by introducing the “F@tih Project”, a national project that aims to effectively integrate technology into schools. After assessing teachers’ and students’ ICT competencies, as defined internationally, the review continues with the proposed model for the e-training of teachers. Summarizing the process of development of the new ICT curriculum, researchers underline key points of the curriculum such as dimensions, levels and competencies. Then teachers’ e-training approaches, together with selected tools, are explained in line with the importance and stages of action research that will be used throughout the pilot implementation of the curriculum and e-training process.
A comparison of current trends within computer science teaching in school in Germany and the UK
(2013)
In the last two years, CS as a school subject has gained a lot of attention worldwide, although different countries have differing approaches to and experiences of introducing CS in schools. This paper reports on a study comparing current trends in CS at school, with a major focus on two countries, Germany and UK. A survey was carried out of a number of teaching professionals and experts from the UK and Germany with regard to the content and delivery of CS in school. An analysis of the quantitative data reveals a difference in foci in the two countries; putting this into the context of curricular developments we are able to offer interpretations of these trends and suggest ways in which curricula in CS at school should be moving forward.
The aim of our article is to collect and present information about contemporary programming environments that are suitable for primary education. We studied the ways they implement (or do not implement) some programming concepts, the ways programs are represented and built in order to support young and novice programmers, as well as their suitability to allow different forms of sharing the results of pupils’ work. We present not only a short description of each considered environment and the taxonomy in the form of a table, but also our understanding and opinions on how and why the environments implement the same concepts and ideas in different ways and which concepts and ideas seem to be important to the creators of such environments.
The process of introducing compulsory ICT education at primary school level in the Czech Republic should be completed next year. Programming and Information, two topics from the basics of computer science have been included in a new textbook. The question is whether the new chapters of the textbook are comprehensible for primary school teachers, who have undergone no training in computer science. The paper reports on a pilot verification project in which pre-service primary school teachers were trained to teach these informatics topics.
In this paper, we show how the theory of NP completeness can be introduced to students in secondary schools. The motivation of this research is that although there are difficult issues that require technical backgrounds, students are already familiar with demanding computational problems through games such as Sudoku or Tetris. Our intention is to bring together important concepts in the theory of NP completeness in such a way that students in secondary schools can easily understand them. This is part of our ongoing research about how to teach fundamental issues in Computer Science in secondary schools. We discuss what needs to be taught in which sequence in order to introduce ideas behind NP completeness to students without technical backgrounds.
Development of competence-oriented curricula is still an important theme in informatics education. Unfortunately informatics curricula, which include the domain of logic programming, are still input-orientated or lack detailed competence descriptions. Therefore, the development of competence model and of learning outcomes' descriptions is essential for the learning process in this domain. A prior research developed both. The next research step is to formulate test items to measure the described learning outcomes. This article describes this procedure and exemplifies test items. It also relates a test in school to the items and shows which misconceptions and typical errors are important to discuss in class. The test result can also confirm or disprove the competence model. Therefore, this school test is important for theoretical research as well as for the concrete planning of lessons. Quantitative analysis in school is important for evaluation and improvement of informatics education.
In this article, we propose a model for an understanding process that learners can use while studying programming. We focus on the “small step” method, in which students learn only a few concepts for one program to avoid having trouble with learning programming. We also analyze the difference in the description order between several C programming textbooks on the basis of the model. We developed a tool to detect “gaps” (a lot of concepts to be learned in a program) in programming textbooks.
The International Conference on Informatics in Schools: Situation, Evolution and Perspectives – ISSEP – is a forum for researchers and practitioners in the area of Informatics education, both in primary and secondary schools. It provides an opportunity for educators to reflect upon the goals and objectives of this subject, its curricula and various teaching/learning paradigms and topics, possible connections to everyday life and various ways of establishing Informatics Education in schools. This conference also cares about teaching/learning materials, various forms of assessment, traditional and innovative educational research designs, Informatics’ contribution to the preparation of children for the 21st century, motivating competitions, projects and activities supporting informatics education in school.
Der internationale Standard CityGML ist zu einer zentralen Schnittstelle für die geometrische wie semantische Beschreibung von 3D-Stadtmodellen geworden. Das Institut für Geodäsie und Geoinformationstechnik (IGG) der Technischen Universität Berlin leistet mit ihren Entwicklung der 3D City Database und der Importer/Exporter Software einen entscheidenden Beitrag die Komplexität von CityGML-Daten in einer Geodatenbank intuitiv und effizient nutzen zu können. Die Software des IGG ist Open Source, unterstützte mit Oracle Spatial (ab Version 10g) aber bisher nur ein proprietäres Datenbank Management System (DBMS). Im Rahmen dieser Masterarbeit wurde eine Portierung auf die freie Datenbank-Software PostgreSQL/PostGIS vorgenommen und mit der Performanz der Oracle-Version verglichen. PostGIS gilt als eine der ausgereiftesten Geodatenbanken und wurde in diesem Jahr mit dem Release der Version 2.0 nochmals um zahlreiche Funktionen und Features (u.a. auch 3D-Unterstützung) erweitert. Die Ergebnisse des Vergleiches sowie die umfangreiche Gegenüberstellung aller verwendeten Konzepte (SQL, PL, Java) geben Aufschluss auf die Charakteristika beider räumlicher DBMS und ermöglichen einen Erkenntnisgewinn über die Projektgrenzen hinaus.