Refine
Has Fulltext
- yes (25) (remove)
Year of publication
- 2017 (25) (remove)
Document Type
- Monograph/Edited Volume (25) (remove)
Keywords
- Graphtransformationen (2)
- Graphtransformationssysteme (2)
- Inklusion (2)
- Musikunterricht (2)
- Sprache (2)
- graph constraints (2)
- graph transformation (2)
- inclusion (2)
- Abhängigkeiten (1)
- Angriffe (1)
Institute
- Hasso-Plattner-Institut für Digital Engineering gGmbH (8)
- Department Erziehungswissenschaft (4)
- Extern (4)
- Sozialwissenschaften (2)
- Vereinigung für Jüdische Studien e. V. (2)
- Department Musik und Kunst (1)
- Hasso-Plattner-Institut für Digital Engineering GmbH (1)
- Institut für Germanistik (1)
- Institut für Philosophie (1)
- Institut für Umweltwissenschaften und Geographie (1)
Squimera
(2017)
Software development tools that work and behave consistently across different programming languages are helpful for developers, because they do not have to familiarize themselves with new tooling whenever they decide to use a new language. Also, being able to combine multiple programming languages in a program increases reusability, as developers do not have to recreate software frameworks and libraries in the language they develop in and can reuse existing software instead.
However, developers often have a broad choice with regard to tools, some of which are designed for only one specific programming language. Various Integrated Development Environments have support for multiple languages, but are usually unable to provide a consistent programming experience due to different features of language runtimes. Furthermore, common mechanisms that allow reuse of software written in other languages usually use the operating system or a network connection as the abstract layer. Tools, however, often cannot support such indirections well and are therefore less useful in debugging scenarios for example.
In this report, we present a novel approach that aims to improve the programming experience with regard to working with multiple high-level programming languages. As part of this approach, we reuse the tools of a Smalltalk programming environment for other languages and build a multi-language virtual execution environment which is able to provide the same runtime capabilities for all languages.
The prototype system Squimera is an implementation of our approach and demonstrates that it is possible to reuse development tools, so that they behave in the same way across all supported programming languages. In addition, it provides convenient means to reuse and even mix software libraries and frameworks written in different languages without breaking the debugging experience.
In der vorliegenden Arbeit wird die Funktion verschiedener Bibelbezüge im Romanwerk Theodor Fontanes untersucht. Dabei wird die These vertreten, dass Fontanes Verweise auf biblische Texte nicht etwa bloß als theologische Positionierungen zu lesen seien, sondern dass er die Bibel als Speicher an kulturellem Wissen in Form von Narrativen, Personen, Geflügelten Worten etc. begreift, den er in seiner Leserschaft voraussetzen kann und durch den er Themen wie Normativität und Diskursivität mit einer besonderen Tiefe in der Spannung von Text und Prätext verhandeln kann. Im Zentrum der Untersuchung stehen dabei Verwendungen von Bibelbezügen als hochkommunikative Diskursschablonen für poetologische Selbstreflexionen sowie für politische oder frömmigkeits-praktische Kontroversen.
Die zweiteilige Publikation „Musikarbeit im Kontext von Inklusion und Integration“ der Potsdamer Schriftenreihe zur Musikpädagogik beinhaltet Erträge aus Veranstaltungen und Qualifikationsarbeiten mehrerer Jahre, die am Lehrstuhl für Musikpädagogik und Musikdidaktik der Universität Potsdam entstanden sind. Beide Bände enthalten neben theoretischen Beiträgen auch Beiträge aus Praxis und Ausbildung in verschiedenen Berufsfeldern, die das besondere Potenzial musikalischer Betätigung für Inklusion und Integration anhand von best-practise-Beispielen darstellen und sind somit als umfassendes Studienmaterial konzipiert.
Der erste Band legt den Schwerpunkt auf die Dokumentation der am Lehrstuhl für Musikpädagogik und Musikdidaktik durchgeführten internationalen Fachtagung „Musik in sozialen Feldern und Inklusionskontexten“ sowie auf Qualifikationsarbeiten, die im Anschluss an die Tagung entstanden sind.
Die Veröffentlichung der vorliegenden Arbeits- und Forschungsergebnisse wurde durch die Unterstützung des Ministeriums für Arbeit, Soziales, Gesundheit, Frauen und Familie des Landes Brandenburg und der Integrationsbeauftragten sowie durch die Universitätsgesellschaft Potsdam e. V. ermöglicht.
Sprache im Musikunterricht
(2017)
Mit dem vorliegenden Band 5 der Potsdamer Schriftenreihe zur Musikpädagogik wird die bildungspolitische Diskussion um den Stellenwert bewussten Sprachhandelns im Fach aufgegriffen. Ausgehend vom aktuellen Forschungsstand zum Thema „Sprache und Sprechen im Musikunterricht“ werden Forschungsarbeiten vorgestellt, die in diesem Kontext zwischen 2013 und 2016 am Lehrstuhl für Musikpädagogik und Musikdidaktik der Universität Potsdam entstanden sind. Die Beiträge skizzieren sowohl Möglichkeiten zur Umsetzung eines sprachbildenden Fachunterrichts Musik als auch soziale Aspekte sprachlichen Lehrerhandelns und setzen damit neue Impulse im musikpädagogischen Diskurs.
Die Veröffentlichung der vorliegenden Forschungsergebnisse wurde durch die Unterstützung des Ministeriums für Arbeit, Soziales, Gesundheit, Frauen und Familie des Landes Brandenburg und der Integrationsbeauftragten sowie durch die Universitätsgesellschaft Potsdam e. V. ermöglicht.
Today, software has become an intrinsic part of complex distributed embedded real-time systems. The next generation of embedded real-time systems will interconnect the today unconnected systems via complex software parts and the service-oriented paradigm. Therefore besides timed behavior and probabilistic behaviour also structure dynamics, where the architecture can be subject to changes at run-time, e.g. when dynamic binding of service end-points is employed or complex collaborations are established dynamically, is required. However, a modeling and analysis approach that combines all these necessary aspects does not exist so far.
To fill the identified gap, we propose Probabilistic Timed Graph Transformation Systems (PTGTSs) as a high-level description language that supports all the necessary aspects of structure dynamics, timed behavior, and probabilistic behavior. We introduce the formal model of PTGTSs in this paper and present a mapping of models with finite state spaces to probabilistic timed automata (PTA) that allows to use the PRISM model checker to analyze PTGTS models with respect to PTCTL properties.
Mildred Harnack, geb. Fish, stammte ursprünglich aus Milwaukee, Wisconsin. Zusammen mit ihrem Ehemann Arvid Harnack zog sie nach Deutschland und lebte seit 1930 in Berlin. Hier lehrte die Literaturwissenschaftlerin an der Friedrich-Wilhelms-Universität (heute Humboldt-Universität) und am Berliner Abendgymnasium (heute Peter A. Silbermann-Schule). Bereits kurz nach der Machtübernahme von Adolf Hitler hatte sich um das Ehepaar Harnack ein Kreis von Freunden gebildet, der gegen die Herrschaft der Nationalsozialisten opponierte. Dazu zählten auch Karl Behrens und Bodo Schlösinger, die beide Schüler Mildred Harnacks am Berliner Abendgymnasium waren. Mildred Harnack konnte mit Hilfe ihrer Kontakte zur amerikanischen Botschaft ihren Schülern im nationalsozialistischen Deutschland ansonsten nicht zugängliche Informationen besorgen.
Aufgrund von Funkkontakten des Freundeskreises zur Sowjetunion wurde die Gruppe von den Nationalsozialisten Rote Kapelle genannt – „rot“ bezog sich auf deren linke Haltung und mit „Kapelle“ wurden Funker assoziiert, die wie Pianisten in einer Kapelle spielen. Der Berliner Oppositionszirkel umfasste bis zu seiner Zerschlagung durch die Nationalsozialisten etwa 150 Personen verschiedenster Berufsgruppen, unterschiedlicher parteipolitischer Einstellungen und Konfessionen. Die Gruppe verfertigte oppositionelle Flugblätter und lieferte Informationen an die amerikanische Botschaft sowie an die Sowjetunion. Mildred Harnack wurde – wie viele ihrer Mitstreiterinnen und Mitstreiter – nach ihrer Verhaftung vom Reichskriegsgericht zum Tode verurteilt und am 16. Februar 1943 in Plötzensee guillotiniert.
In diesem Band stellen Studierende der Universität Potsdam sowie Hörerinnen und Hörer der Peter A. Silbermann-Schule (Berlin) nach einem kurzen Überblick zum Widerstand gegen den Nationalsozialismus in Deutschland das Netzwerk der Roten Kapelle sowie die Biographien von Mildred Harnack und ihren Schülern Karl Behrens und Bodo Schlösinger vom Berliner Abendgymnasium eindrücklich vor.
Region – Sprache – Literatur
(2017)
Mit dem neuen Rahmenlehrplan für die Länder Brandenburg und Berlin wird der Kompetenzentwicklung der Schülerinnen und Schüler unter den Bedingungen lebensweltlicher Erfahrungen ein besonderer Stellenwert beigemessen. Der Sammelband enthält Beiträge, in denen den Lehrerinnen und Lehrern vielfältige Unterrichtsmaterialien und didaktische Anregungen für einen praxisnahen, entdeckenden Unterricht in der Primar- und Sekundarstufe für den Deutschunterricht vorgestellt werden. Diese reichen von theoretischen Grundlagen, über einzelne Unterrichtssequenzen und Projekte bis zur Darstellung einer Lernspirale für die Jahrgangsstufen 1 bis 10. Vielfältige, auch multimediale Zugänge bis zum spielerischen Umgang mit der Sprache zeigen, dass Sprache kein „trockener“ Lerngegenstand sein muss. Die Beiträge geben darüber hinaus Einblicke in die fachlichen Hintergründe, die helfen sollen, den Zugang zu den einzelnen Gegenständen zu erleichtern. Das thematische Zentrum „Region“ bildet den Ausgangspunkt für die Einbeziehung des Niederdeutschen, Sorbischen, Berlinischen, Kiezdeutschen sowie der Dialekte. Dabei werden sowohl literarische als auch Sachtexte berücksichtigt.
Die E-Learning-Strategie beschreibt zunächst das Selbstverständnis, was unter E-Learning verstanden werden soll, die aktuelle Situation an der Universität Potsdam und Eckpunkte von strategischen Ansätzen für E-Learning-Entwicklung. Die Universität Potsdam versteht sich demnach als eine Hochschule im digitalen Zeitalter, die den umfassenden Einsatz von E-Learning als gelebte Lehr-/Lernkultur für alle Studierenden, Lehrenden und Mitarbeiter(innen) verwirklichen will. Ausgehend von dem relativ hohen Niveau, dass die E-Learning-Aktivitäten bereits aufweisen, wird der Schwerpunkt der kommenden Jahre in der Verstetigung, Vernetzung und Bündelung der Aktivitäten gesehen. Auf Basis dieser Vorüberlegungen werden mögliche Handlungsfelder und Maßnahmen für die E-Learning Entwicklung der nächsten Jahre an der Universität Potsdam vorgeschlagen. Die Handlungsfelder lauten: "Austausch und Vernetzung", "Content", "Innovation und Verstetigung", "Medienkompetenz", "Organisationsstrukturen", "Qualitätsentwicklung" und "UP und die Welt". Die Priorisierung und Umsetzung der Maßnahmen wird durch eine Steuerungsgruppe initiiert und begleitet. Die Strategie wurde auf der 247. Sitzung des Senats der Universität Potsdam am 25.01.2017 beschlossen.
Every year, the Hasso Plattner Institute (HPI) invites guests from industry and academia to a collaborative scientific workshop on the topic Every year, the Hasso Plattner Institute (HPI) invites guests from industry and academia to a collaborative scientific workshop on the topic "Operating the Cloud". Our goal is to provide a forum for the exchange of knowledge and experience between industry and academia. Co-located with the event is the HPI's Future SOC Lab day, which offers an additional attractive and conducive environment for scientific and industry related discussions. "Operating the Cloud" aims to be a platform for productive interactions of innovative ideas, visions, and upcoming technologies in the field of cloud operation and administration.
On the occasion of this symposium we called for submissions of research papers and practitioner's reports. A compilation of the research papers realized during the fourth HPI cloud symposium "Operating the Cloud" 2016 are published in this proceedings. We thank the authors for exciting presentations and insights into their current work and research.
Moreover, we look forward to more interesting submissions for the upcoming symposium later in the year. Every year, the Hasso Plattner Institute (HPI) invites guests from industry and academia to a collaborative scientific workshop on the topic "Operating the Cloud". Our goal is to provide a forum for the exchange of knowledge and experience between industry and academia. Co-located with the event is the HPI's Future SOC Lab day, which offers an additional attractive and conducive environment for scientific and industry related discussions. "Operating the Cloud" aims to be a platform for productive interactions of innovative ideas, visions, and upcoming technologies in the field of cloud operation and administration.
While offering significant expressive power, graph transformation systems often come with rather limited capabilities for automated analysis, particularly if systems with many possible initial graphs and large or infinite state spaces are concerned. One approach that tries to overcome these limitations is inductive invariant checking. However, the verification of inductive invariants often requires extensive knowledge about the system in question and faces the approach-inherent challenges of locality and lack of context.
To address that, this report discusses k-inductive invariant checking for graph transformation systems as a generalization of inductive invariants. The additional context acquired by taking multiple (k) steps into account is the key difference to inductive invariant checking and is often enough to establish the desired invariants without requiring the iterative development of additional properties.
To analyze possibly infinite systems in a finite fashion, we introduce a symbolic encoding for transformation traces using a restricted form of nested application conditions. As its central contribution, this report then presents a formal approach and algorithm to verify graph constraints as k-inductive invariants. We prove the approach's correctness and demonstrate its applicability by means of several examples evaluated with a prototypical implementation of our algorithm.
Studium nach Bologna
(2017)
Ziel des vorliegenden dritten Bandes der Potsdamer Beiträge zur Hochschulforschung ist es, ausgewählte Aspekte der Hochschuldebatte um Studium und Lehre zu beleuchten und mit empirischen Befunden zu vertiefen. Im Fokus stehen solche aktuellen Debatten wie die Gestaltung des Studieneingangs, die Erhöhung der Beschäftigungsbefähigung, die Qualität der Praktika sowie Probleme der Lehrerbildung. Dabei wird die Hochschuldebatte in Deutschland durch einschlägige Beiträge aus anderen, west- und osteuropäischen Ländern erweitert.
Die Reihe versteht sich als Forum verschiedener Akteure aus der Hochschulforschung, die die Diskussion zur Qualitätsentwicklung in Lehre und Studium mit ihren Impulsen aus Analysen und empirischen Ergebnissen bereichern sollen. Der Band richtet sich an alle, die sich für die Entwicklung an Hochschulen interessieren.
Das Bildungsgesetz der spanischen Regierung aus dem Jahre 2013 (sp. LOMCE) gilt als Todesstoß für künstlerische Fächer an allgemein bildenden Schulen: Erst 1990 als Pflichtfach eingeführt, wird Musik nun nur noch als Wahlfach angeboten. Auch die Musiklehrerausbildung an den Hochschulen verzeichnet massive Einbußen. Besonders irritierend daran ist, dass die betroffenen Universitätsgremien zu dieser politischen Entscheidung nicht gehört wurden. Damit verschwindet in Spanien das Studienfach Lehramt Musik je nach Universität nach nicht einmal 18 bis 20 Jahren aus dem Studienangebot.
Dieser Band knüpft an die repräsentative Dokumentation des Fortbildungsprojektes Belcantare Brandenburg. Jedes Kind kann singen! für musikunterrichtende Grundschullehrkräfte im Land Brandenburg und seine begleitendende Evaluationsforschung an. Inhaltlicher Schwerpunkt dieses Bandes ist die Vorstellung der explorativen Evaluationsstudie mit ihren sensiblen Konzepten, Fragenstellungen, ihrem triangulierenden Forschungsdesign und ausgewählten Forschungsergebnissen aus den Staffeln 1 und 2.
Die fachdidaktischen, musikpsychologischen und methodischen Kontexte der Evaluationsforschung werden durch Fachartikel entsprechender Autoren in diesem Band transparent und bereichern ihn im besonderen Maße. Die Mitwirkung von Studierenden am Forschungsprozess erforderte Anwendungsleitfäden zur methodischen Handhabung verschiedener Erhebungsinstrumente und Auswertungsmethoden zu entwickeln, denen hier der Raum zur Veröffentlichung gegeben wurde.
Graphs are ubiquitous in Computer Science. For this reason, in many areas, it is very important to have the means to express and reason about graph properties. In particular, we want to be able to check automatically if a given graph property is satisfiable. Actually, in most application scenarios it is desirable to be able to explore graphs satisfying the graph property if they exist or even to get a complete and compact overview of the graphs satisfying the graph property.
We show that the tableau-based reasoning method for graph properties as introduced by Lambers and Orejas paves the way for a symbolic model generation algorithm for graph properties. Graph properties are formulated in a dedicated logic making use of graphs and graph morphisms, which is equivalent to firstorder logic on graphs as introduced by Courcelle. Our parallelizable algorithm gradually generates a finite set of so-called symbolic models, where each symbolic model describes a set of finite graphs (i.e., finite models) satisfying the graph property. The set of symbolic models jointly describes all finite models for the graph property (complete) and does not describe any finite graph violating the graph property (sound). Moreover, no symbolic model is already covered by another one (compact). Finally, the algorithm is able to generate from each symbolic model a minimal finite model immediately and allows for an exploration of further finite models. The algorithm is implemented in the new tool AutoGraph.
Seit Jahren ist der Mangel an Informatiklehrkräften bekannt und wird fachdidaktisch und politisch diskutiert. Aufgrund der geringen Anzahl von Studierenden mit dem Berufsziel Informatiklehrkraft ist eine Vergrößerung des Mangels vorhersehbar. Es stellt sich die Frage, warum so wenige Studierende sich für das Studienziel Lehramt Informatik entscheiden.
Das Ziel der vorliegenden Arbeit ist es, die Berufswahl von Informatiklehrkräften aus der individuellen, biographischen Perspektive der Beteiligten zu erforschen und dabei Faktoren zu identifizieren, die die Berufswahl Informatiklehrkraft positiv oder negativ beeinflussen. Der Forschungsschwerpunkt liegt auf der qualitativen empirischen Untersuchung des Berufswahlprozesses, während eine quantitative Befragung aktiver Informatiklehrkräfte zu berufswahlrelevanten Aspekten des Berufsbildes diese ergänzt. Das Forschungskonzept der qualitativen Untersuchung orientiert sich an der Grounded Theory. Es wurden angehende Informatiklehrkräfte zu ihrem Berufswahlprozess befragt, wobei die Daten durch mündliche Interviews, Gruppendiskussionen und schriftliche Berufswahlbiographien erhoben wurden. Die Datenauswertung orientiert sich zudem methodisch an der dokumentarischen Methode nach Ralf Bohnsack.
Die Ergebnisse der Untersuchung zeigen, dass der Berufswahlprozess von angehenden Informatiklehrkräften häufig mit Umwegen in Form von Studienzielwechseln verbunden ist. Neben dem eigenen Bild der Informatik und dem Informatikselbstkonzept kommt dem Informatikunterricht der eigenen Schulzeit eine wichtige Rolle in diesem Prozess zu. Von der Lehrerforschung werden die Unterrichtserfahrungen während der eigenen Schulzeit im später studierten Fach als entscheidend für die Fachwahl identifiziert. Dies bestätigt sich in den Berufswahlbiographien derjenigen angehenden Informatiklehrkräfte, die den Informatikunterricht ihrer eigenen Schulzeit positiv erinnern. Diese streben meist direkt in ihrem ersten Studium das Berufsziel Informatiklehrkraft an. Sie hatten zur Schulzeit ein positives Bild der Informatik und ein hohes Informatikselbstkonzept. Der Informatiklehrkraft ihrer Schulzeit bescheinigen sie oft eine berufliche Vorbildfunktion. Allerdings hatten die meisten der befragten angehenden Informatiklehrkräfte selbst keinen Informatikunterricht oder erinnern diesen negativ. Der Weg zum Studium Informatiklehrkraft führt bei diesen Befragten häufig über den Umweg von zunächst anderen Studienentscheidungen, meistens über ein Lehramtsstudium mit anderen Fächern oder ein Informatikstudium. Die Informatikstudierenden haben zum Zeitpunkt ihrer ersten Studienwahl ein positives Bild der Informatik und ein hohes Informatikselbstkonzept aber kein positives Berufsbild Informatiklehrkraft. Ihr Wechsel von einem Informatikstudium zum Studium mit dem Berufsziel Informatiklehrkraft wird in der Regel durch den Wunsch nach einer stärkeren sozialen Komponente im späteren Berufsalltag ausgelöst. Bei den Lehramtsstudierenden, die häufig zunächst ein niedriges Informatikselbstkonzept und/oder ein negatives Bild der Informatik haben, kann es zu einer Umorientierung hin zum Studienziel Informatiklehrkraft kommen, wenn diese Vorstellungen sich während des ersten Studiums – z. B. durch den Besuch von universitären Lehrveranstaltungen zu informatischen Inhalten – ändern. Die letztliche Entscheidung für den Beruf Informatiklehrkraft wird von denjenigen, die ihr Studienziel wechselten, mit Recht als durch Zufälle bestimmt empfunden.
The correctness of model transformations is a crucial element for model-driven engineering of high quality software. In particular, behavior preservation is the most important correctness property avoiding the introduction of semantic errors during the model-driven engineering process. Behavior preservation verification techniques either show that specific properties are preserved, or more generally and complex, they show some kind of behavioral equivalence or refinement between source and target model of the transformation. Both kinds of behavior preservation verification goals have been presented with automatic tool support for the instance level, i.e. for a given source and target model specified by the model transformation. However, up until now there is no automatic verification approach available at the transformation level, i.e. for all source and target models specified by the model transformation.
In this report, we extend our results presented in [27] and outline a new sophisticated approach for the automatic verification of behavior preservation captured by bisimulation resp. simulation for model transformations specified by triple graph grammars and semantic definitions given by graph transformation rules. In particular, we show that the behavior preservation problem can be reduced to invariant checking for graph transformation and that the resulting checking problem can be addressed by our own invariant checker even for a complex example where a sequence chart is transformed into communicating automata. We further discuss today's limitations of invariant checking for graph transformation and motivate further lines of future work in this direction.
In der Philosophie des 20. Jahrhunderts wird deutlich, dass es in Frankreich und in Deutschland voneinander abweichende Sichtweisen auf die Frage gibt, ob der Mensch eine "Sonderstellung" in der Dynamik des biologischen und geschichtlichen Lebens genießt. Während sich in Deutschland die Tradition eines anthropologischen Denkens neu formiert, ist in Frankreich eine scharfe Skepsis gegenüber dem Erbe des Humanismus charakteristisch. Die Beiträge dieses zweisprachigen Buches untersuchen diese deutsch-französische Konstellation von Fragen und Autoren, und aktualisieren die Reflexion auf die (Grenzen der) Singularität des Menschen.
Um den zunehmenden Diebstahl digitaler Identitäten zu bekämpfen, gibt es bereits mehr als ein Dutzend Technologien. Sie sind, vor allem bei der Authentifizierung per Passwort, mit spezifischen Nachteilen behaftet, haben andererseits aber auch jeweils besondere Vorteile. Wie solche Kommunikationsstandards und -Protokolle wirkungsvoll miteinander kombiniert werden können, um dadurch mehr Sicherheit zu erreichen, haben die Autoren dieser Studie analysiert. Sie sprechen sich für neuartige Identitätsmanagement-Systeme aus, die sich flexibel auf verschiedene Rollen eines einzelnen Nutzers einstellen können und bequemer zu nutzen sind als bisherige Verfahren. Als ersten Schritt auf dem Weg hin zu einer solchen Identitätsmanagement-Plattform beschreiben sie die Möglichkeiten einer Analyse, die sich auf das individuelle Verhalten eines Nutzers oder einer Sache stützt.
Ausgewertet werden dabei Sensordaten mobiler Geräte, welche die Nutzer häufig bei sich tragen und umfassend einsetzen, also z.B. internetfähige Mobiltelefone, Fitness-Tracker und Smart Watches. Die Wissenschaftler beschreiben, wie solche Kleincomputer allein z.B. anhand der Analyse von Bewegungsmustern, Positionsund Netzverbindungsdaten kontinuierlich ein „Vertrauens-Niveau“ errechnen können. Mit diesem ermittelten „Trust Level“ kann jedes Gerät ständig die Wahrscheinlichkeit angeben, mit der sein aktueller Benutzer auch der tatsächliche Besitzer ist, dessen typische Verhaltensmuster es genauestens „kennt“.
Wenn der aktuelle Wert des Vertrauens-Niveaus (nicht aber die biometrischen Einzeldaten) an eine externe Instanz wie einen Identitätsprovider übermittelt wird, kann dieser das Trust Level allen Diensten bereitstellen, welche der Anwender nutzt und darüber informieren will. Jeder Dienst ist in der Lage, selbst festzulegen, von welchem Vertrauens-Niveau an er einen Nutzer als authentifiziert ansieht. Erfährt er von einem unter das Limit gesunkenen Trust Level, kann der Identitätsprovider seine Nutzung und die anderer Services verweigern.
Die besonderen Vorteile dieses Identitätsmanagement-Ansatzes liegen darin, dass er keine spezifische und teure Hardware benötigt, um spezifische Daten auszuwerten, sondern lediglich Smartphones und so genannte Wearables. Selbst Dinge wie Maschinen, die Daten über ihr eigenes Verhalten per Sensor-Chip ins Internet funken, können einbezogen werden. Die Daten werden kontinuierlich im Hintergrund erhoben, ohne dass sich jemand darum kümmern muss. Sie sind nur für die Berechnung eines Wahrscheinlichkeits-Messwerts von Belang und verlassen niemals das Gerät. Meldet sich ein Internetnutzer bei einem Dienst an, muss er sich nicht zunächst an ein vorher festgelegtes Geheimnis – z.B. ein Passwort – erinnern, sondern braucht nur die Weitergabe seines aktuellen Vertrauens-Wertes mit einem „OK“ freizugeben.
Ändert sich das Nutzungsverhalten – etwa durch andere Bewegungen oder andere Orte des Einloggens ins Internet als die üblichen – wird dies schnell erkannt. Unbefugten kann dann sofort der Zugang zum Smartphone oder zu Internetdiensten gesperrt werden. Künftig kann die Auswertung von Verhaltens-Faktoren noch erweitert werden, indem z.B. Routinen an Werktagen, an Wochenenden oder im Urlaub erfasst werden. Der Vergleich mit den live erhobenen Daten zeigt dann an, ob das Verhalten in das übliche Muster passt, der Benutzer also mit höchster Wahrscheinlichkeit auch der ausgewiesene Besitzer des Geräts ist.
Über die Techniken des Managements digitaler Identitäten und die damit verbundenen Herausforderungen gibt diese Studie einen umfassenden Überblick. Sie beschreibt zunächst, welche Arten von Angriffen es gibt, durch die digitale Identitäten gestohlen werden können. Sodann werden die unterschiedlichen Verfahren von Identitätsnachweisen vorgestellt. Schließlich liefert die Studie noch eine zusammenfassende Übersicht über die 15 wichtigsten Protokolle und technischen Standards für die Kommunikation zwischen den drei beteiligten Akteuren: Service Provider/Dienstanbieter, Identitätsprovider und Nutzer. Abschließend wird aktuelle Forschung des Hasso-Plattner-Instituts zum Identitätsmanagement vorgestellt.
Konzepte, nach denen sich die demokratische Mitwirkung der Bürger vornehmlich in Wahlen erschöpft, gehören spätestens seit „Stuttgart 21“ der Vergangenheit an. Indes ist die Bürgerbeteiligung auch jenseits solcher Großprojekte längst zu einem beherrschenden Thema der Zeit herangewachsen. Das gilt zumal für die kommunale Ebene. Dort werden traditionsreiche Partizipationsformen nicht nur intensiv genutzt, sondern zunehmend um neue Beteiligungsvarianten ergänzt und in innovativen Modellprojekten fortentwickelt. Dabei treten zwei Antriebskräfte besonders hervor. Zum einen fordern die Bürger nach den Maximen „Mitmachen, Mitwirken, Mitentscheiden“ deutlich verbesserte Partizipationsmöglichkeiten ein. Zum anderen setzen die Kommunen verstärkt auf bürgerschaftliches Engagement zur Erschließung Ressourcen privater Akteure für die Bereitstellung öffentlicher Leistungen. Übergreifende Perspektive ist die Ausbildung einer Neuen Partizipationskultur in der Bürgerkommune zur Optimierung des Gemeinwohls.
Für die kommunale Praxis ist das partizipationsgestützte Miteinander von Verwaltung. Politik und Bürgerschaft in Systementwürfen, Leitbildern, Organisations- und Verfahrensmodellen sowie lokalen Beteiligungsformaten konkretisiert. Doch verbinden sich mit den alten und neuen Ansätzen der Bürgerbeteiligung noch eine ganze Reihe offener Fragen – so etwa nach den rechtlichen Möglichkeiten und Grenzen der neuen kommunalen Beteiligungskultur, nach Erfolgsbedingungen und konkreten Erfahrungen mit der Umsetzung von Partizipationsmodellen.
Auf der 21. Fachtagung des Kommunalwissenschaftlichen Instituts (KWI) der Universität Potsdam wurden Schlüsselthemen der Neuen Partizipationskultur in der Bürgerkommune, namentlich der normativen Rahmenbedingungen und politischen Direktiven, Modernisierungsimpulse und Aktivierungsstrategien, Erfolgsbedingungen und spezifische Problemlagen einschließlich der Fallstricke in der Praxis und nicht zuletzt ausgewählter Einsatzfelder mit den dazugehörigen Erfahrungen diskutiert.
Die digitale Entwicklung durchdringt unser Bildungssystem, doch Schulen sind auf die Veränderungen kaum vorbereitet: Überforderte Lehrer/innen, infrastrukturell schwach ausgestattete Unterrichtsräume und unzureichend gewartete Computernetzwerke sind keine Seltenheit. Veraltete Hard- und Software erschweren digitale Bildung in Schulen eher, als dass sie diese ermöglichen: Ein zukunftssicherer Ansatz ist es, die Rechner weitgehend aus den Schulen zu entfernen und Bildungsinhalte in eine Cloud zu überführen.
Zeitgemäßer Unterricht benötigt moderne Technologie und eine zukunftsorientierte Infrastruktur. Eine Schul-Cloud (https://hpi.de/schul-cloud) kann dabei helfen, die digitale Transformation in Schulen zu meistern und den fächerübergreifenden Unterricht mit digitalen Inhalten zu bereichern. Den Schüler/innen und Lehrkräften kann sie viele Möglichkeiten eröffnen: einen einfachen Zugang zu neuesten, professionell gewarteten Anwendungen, die Vernetzung verschiedener Lernorte, Erleichterung von Unterrichtsvorbereitung und Differenzierung. Die Schul-Cloud bietet Flexibilität, fördert die schul- und fächerübergreifende Anwendbarkeit und schafft eine wichtige Voraussetzung für die gesellschaftliche Teilhabe und Mitgestaltung der digitalen Welt. Neben den technischen Komponenten werden im vorliegenden Bericht ausgewählte Dienste der Schul-Cloud exemplarisch beschrieben und weiterführende Schritte aufgezeigt.
Das in Zusammenarbeit mit zahlreichen Expertinnen und Experten am Hasso-Plattner-Institut (HPI) entwickelte und durch das Bundesministerium für Bildung und Forschung (BMBF) geförderte Konzept einer Schul-Cloud stellt eine wichtige Grundlage für die Einführung Cloud-basierter Strukturen und -Dienste im Bildungsbereich dar. Gemeinsam mit dem nationalen Excellence-Schulnetzwerk MINT-EC als Kooperationspartner startet ab sofort die Pilotphase. Aufgrund des modularen, skalierbaren Ansatzes der Schul-Cloud kommt dem infrastrukturellen Prototypen langfristig das Potential zu, auch über die begrenzte Anzahl an Pilotschulen hinaus bundesweit effizient eingesetzt zu werden.
Genisa-Blätter II
(2017)
In den acht Beiträgen der „Genisa-Blätter II“ werden Funde aus verschiedenen fränkischen Genisot vorgestellt. Sie wurden im Rahmen eines interdisziplinären Workshops im Genisaprojekt Veitshöchheim von Nachwuchswissenschaftlerinnen und -wissenschaftlern aus ganz Deutschland bearbeitet. Die edierten Quellen sowie deren Einordnung durch die Autorinnen und Autoren geben vielfältige Einblicke in die Komplexität des historischen Judentums in Franken. Der Schwerpunkt dieser Ausgabe liegt auf Text- und Textilfunden aus dem Bereich der Religion.
Hartmut Asche prägte über ein Vierteljahrhundert maßgeblich die Forschungsfelder der Geoinformation, Visualisierung und Kartographie. Die vorliegende Festschrift stellt eine würdige Gabe von Mitarbeiterinnen und Mitarbeitern des Institutes für Geographie der Universität Potsdam anlässlich seiner Emeritierung im März 2017 dar. International renommierte, Herrn Asches Karriere begleitende Autorinnen und Autoren, konnten für Fachbeiträge aus den Bereichen Geographie, Geoinformatik, Kartographie und Fernerkundung gewonnen werden. Es werden in fachlich hervorragender Weise Schwerpunkte umrissen, mit welchen Herr Asche sich in seiner von zahlreichen Höhepunkten geprägten wissenschaftlichen Karriere beschäftigte.
Developing large software projects is a complicated task and can be demanding for developers. Continuous integration is common practice for reducing complexity. By integrating and testing changes often, changesets are kept small and therefore easily comprehensible. Travis CI is a service that offers continuous integration and continuous deployment in the cloud. Software projects are build, tested, and deployed using the Travis CI infrastructure without interrupting the development process. This report describes how Travis CI works, presents how time-driven, periodic building is implemented as well as how CI data visualization can be done, and proposes a way of dealing with dependency problems.
El Aleph
(2017)
Der argentinische Schriftsteller Jorge Luis Borges (1899-1986) gilt als ein Literat, der bereits in seinen Werken der 30er und 40er Jahre des 20. Jahrhunderts Strukturen geschaffen hat, die später die Postmoderne prägen sollten. Foucault hat sich auf ihn berufen. Borges Erzählungen sind insbesondere von intertextuellen Bezugnahmen und sich in Paradoxien verstrickende Narrative durchzogen. Die Folge ist ein dezentrierter sowie dialogisierender Text, der keine eindeutige Aussage hervorbringt, sondern in einer vielstimmigen und unabgeschlossenen Textauslegung zur Wirkung kommt.
Die vorliegende Studie stellt zur Diskussion, ob ein wesentlicher Grund für Borges’ innovatives, die literarische Postmoderne prägendes Textkonzept darin gesehen werden kann, dass sich der argentinische Schriftsteller nachweislich mit jüdischer Schriftkultur auseinandergesetzt hat. Geht man davon aus, dass die in jüdischer Tradition kultivierte mehrschichtige Textdeutung zugleich einen permanenten, unendlichen Rezeptionsprozess zur Folge hat wird deutlich, dass diese Tradition nicht nur kompatibel zu Borges’ Literatur ist, sondern auch zahlreiche Reflexionen in der modernen Literatur und Literaturforschung angeregt hat.