020 Bibliotheks- und Informationswissenschaften
Filtern
Erscheinungsjahr
Dokumenttyp
- Wissenschaftlicher Artikel (20)
- Postprint (9)
- Konferenzveröffentlichung (4)
- Monographie/Sammelband (3)
- Arbeitspapier (2)
- Teil eines Buches (Kapitel) (1)
- Dissertation (1)
- Masterarbeit (1)
- Sonstiges (1)
- Preprint (1)
Schlagworte
- Open Access (6)
- Forschungsdaten (5)
- Zweitveröffentlichung (5)
- Archiv (4)
- Nachlass (4)
- Agrarwissenschaft (3)
- Datenschutz (3)
- Geowissenschaften (3)
- Publikationsfonds (3)
- Umweltwissenschaften (3)
Institut
- Universitätsbibliothek (26)
- Extern (4)
- ZIM - Zentrum für Informationstechnologie und Medienmanagement (3)
- Fachgruppe Betriebswirtschaftslehre (2)
- Hasso-Plattner-Institut für Digital Engineering gGmbH (2)
- Institut für Informatik und Computational Science (1)
- Institut für Umweltwissenschaften und Geographie (1)
- Kommunalwissenschaftliches Institut (1)
- Präsident | Vizepräsidenten (1)
We used structural topic modeling to analyze over 800,000 German tweets about COVID-19 to answer the questions: What patterns emerge in tweets as a response to a health crisis? And how do topics discussed change over time? The study leans on the goals associated with the health information seeking (GAINS) model, discerning whether a post aims at tackling and eliminating the problem (i.e., problem-focused) or managing the emotions (i.e., emotion-focused); whether it strives to maximize positive outcomes (promotion focus) or to minimize negative outcomes (prevention focus). The findings indicate four clusters salient in public reactions: 1) “Understanding” (problem-promotion); 2) “Action planning” (problem-prevention); 3) “Hope” (emotion-promotion) and 4) “Reassurance” (emotion-prevention). Public communication is volatile over time, and a shift is evidenced from self-centered to community-centered topics within 4.5 weeks. Our study illustrates social media text mining's potential to quickly and efficiently extract public opinions and reactions. Monitoring fears and trending topics enable policymakers to rapidly respond to deviant behavior, like resistive attitudes toward containment measures or deteriorating physical health. Healthcare workers can use the insights to provide mental health services for battling anxiety or extensive loneliness from staying home.
Mit dem Übergang zum digitalen Medium haben sich die Bezugsstrukturen und das Angebot an elektronischer Fachinformation in den Bibliotheken nachhaltig verändert. In den vorliegenden Untersuchungen wird das Angebot elektronischer Zeitschriften und Datenbanken und die Nutzung elektronischer Zeitschriften in fünf ausgewählten Fachgebieten und in unterschiedlichen Bibliothekstypen dargelegt. Darüber hinaus werden die derzeitigen Bezugsstrukturen beschrieben sowie die Ergebnisse einer Befragung der Konsortien zu Zielsetzungen, Vertragsformen und Geschäftsmodellen dargestellt. Chancen und Risiken der konsortialen Bezugsform werden erörtert.
Am Beispiel der Erd- und Umweltwissenschaften (einschließlich der landschafts- und standortbezogenen Teilgebiete der Agrarwissenschaften) zeigt dieser Beitrag, dass auch in scheinbar „unverdächtigen“ Disziplinen personenbezogene Forschungsdaten vorkommen. Eine Auswertung der Literatur zeigt, dass allgemeine Handreichungen zum Datenschutz in der Forschung kaum Unterstützung bei der Arbeit mit den für diese Disziplinen besonders relevanten Fällen bieten. Für die in den Erd- und Umweltwissenschaften besonders relevanten raumbezogenen Daten kommt hinzu, dass selbst unter Fachjuristinnen Uneinigkeit über die datenschutzrechtliche Bewertung herrscht. Die Ergebnisse einer empirischen Vorstudie zeigen eine ganze Reihe verschiedener Arten personenbezogener Forschungsdaten auf, die in der Forschungspraxis der Erd- und Umweltwissenschaften eine Rolle spielen. Sie legen außerdem nahe, dass der Umgang mit personenbezogenen Daten in der Forschungspraxis der Erd- und Umweltwissenschaften auf Grund der mangelnden Vertrautheit mit dem Datenschutz nicht immer den rechtlichen Anforderungen entspricht. Auch Unterstützung durch Fachgesellschaften und Infrastruktureinrichtungen – etwa in Form disziplinspezifischer Handreichungen, qualifizierter Beratung oder institutionalisierten Möglichkeiten, Daten sicher zu archivieren und gegebenenfalls zugangsbeschränkt zu publizieren – bestehen kaum. Aus dieser Situation ergeben sich Herausforderungen an die Weiterentwicklung der disziplinären Datenkultur und Dateninfrastruktur, beispielsweise im Rahmen des Prozesses zum Aufbau einer Nationalen Forschungsdateninfrastruktur (NFDI). Zu den Möglichkeiten für Infrastruktureinrichtungen, diese Weiterentwicklung zu unterstützen, zeigt dieser Beitrag Handlungsoptionen auf.
Am Beispiel der Erd- und Umweltwissenschaften (einschließlich der landschafts- und standortbezogenen Teilgebiete der Agrarwissenschaften) zeigt dieser Beitrag, dass auch in scheinbar „unverdächtigen“ Disziplinen personenbezogene Forschungsdaten vorkommen. Eine Auswertung der Literatur zeigt, dass allgemeine Handreichungen zum Datenschutz in der Forschung kaum Unterstützung bei der Arbeit mit den für diese Disziplinen besonders relevanten Fällen bieten. Für die in den Erd- und Umweltwissenschaften besonders relevanten raumbezogenen Daten kommt hinzu, dass selbst unter Fachjuristinnen Uneinigkeit über die datenschutzrechtliche Bewertung herrscht. Die Ergebnisse einer empirischen Vorstudie zeigen eine ganze Reihe verschiedener Arten personenbezogener Forschungsdaten auf, die in der Forschungspraxis der Erd- und Umweltwissenschaften eine Rolle spielen. Sie legen außerdem nahe, dass der Umgang mit personenbezogenen Daten in der Forschungspraxis der Erd- und Umweltwissenschaften auf Grund der mangelnden Vertrautheit mit dem Datenschutz nicht immer den rechtlichen Anforderungen entspricht. Auch Unterstützung durch Fachgesellschaften und Infrastruktureinrichtungen – etwa in Form disziplinspezifischer Handreichungen, qualifizierter Beratung oder institutionalisierten Möglichkeiten, Daten sicher zu archivieren und ggf. zugangsbeschränkt zu publizieren – bestehen kaum. Aus dieser Situation ergeben sich Herausforderungen an die Weiterentwicklung der disziplinären Datenkultur und Dateninfrastruktur, beispielsweise im Rahmen des Prozesses zum Aufbau einer Nationalen Forschungsdateninfrastruktur (NFDI). Zu den Möglichkeiten für Infrastruktureinrichtungen, diese Weiterentwicklung zu unterstützen, zeigt dieser Beitrag Handlungsoptionen auf.
Am Beispiel der Erd- und Umweltwissenschaften (einschließlich der landschafts- und standortbezogenen Teilgebiete der Agrarwissenschaften) zeigt dieser Beitrag, dass auch in scheinbar „unverdächtigen“ Disziplinen personenbezogene Forschungsdaten vorkommen. Eine Auswertung der Literatur zeigt, dass allgemeine Handreichungen zum Datenschutz in der Forschung kaum Unterstützung bei der Arbeit mit den für diese Disziplinen besonders relevanten Fällen bieten. Für die in den Erd- und Umweltwissenschaften besonders relevanten raumbezogenen Daten kommt hinzu, dass selbst unter Fachjuristinnen Uneinigkeit über die datenschutzrechtliche Bewertung herrscht. Die Ergebnisse einer empirischen Vorstudie zeigen eine ganze Reihe verschiedener Arten personenbezogener Forschungsdaten auf, die in der Forschungspraxis der Erd- und Umweltwissenschaften eine Rolle spielen. Sie legen außerdem nahe, dass der Umgang mit personenbezogenen Daten in der Forschungspraxis der Erd- und Umweltwissenschaften auf Grund der mangelnden Vertrautheit mit dem Datenschutz nicht immer den rechtlichen Anforderungen entspricht. Auch Unterstützung durch Fachgesellschaften und Infrastruktureinrichtungen – etwa in Form disziplinspezifischer Handreichungen, qualifizierter Beratung oder institutionalisierten Möglichkeiten, Daten sicher zu archivieren und gegebenenfalls zugangsbeschränkt zu publizieren – bestehen kaum. Aus dieser Situation ergeben sich Herausforderungen an die Weiterentwicklung der disziplinären Datenkultur und Dateninfrastruktur, beispielsweise im Rahmen des Prozesses zum Aufbau einer Nationalen Forschungsdateninfrastruktur (NFDI). Zu den Möglichkeiten für Infrastruktureinrichtungen, diese Weiterentwicklung zu unterstützen, zeigt dieser Beitrag Handlungsoptionen auf.
Mit RISE-DE liegt als FDMentor-Projektergebnis ein Referenzmodell für Strategieprozesse im institutionellen Forschungsdatenmanagement (FDM) vor. RISE-DE bietet einen Bewertungsrahmen zur Selbstevaluation und Zielbestimmung und eignet sich als Werkzeug zur Gestaltung einer strukturierten, Stakeholder-orientierten Strategieentwicklung für das FDM an Hochschulen und Forschungseinrichtungen.
RISE-DE basiert auf dem lose an Reifegradenmodellen orientierten Research Infrastructure Self-Evaluation Framework (RISE v1.1) des Digital Curation Centre (DCC), wurde aber für den Einsatz in partizipativen Prozessen deutlich überarbeitet sowie inhaltlich an den deutschen Wissenschaftskontext und Entwicklungen in der guten Praxis im FDM angepasst. Eine mit Hilfe von RISE-DE erarbeitete Strategie erfüllt zugleich die von der Hochschulrektorenkonferenz (HRK) und der League of European Research Universities (LERU) formulierten Empfehlungen.
Die hier vorliegende RISE-DE Version 1.0 nimmt Erfahrungen aus dem Piloteinsatz an der Universität Potsdam sowie Feedback aus der Community auf. Es beinhaltet gegenüber der Vorversion zum einen Veränderungen an den Themen des Referenzmodells, zum anderen wurden Empfehlungen für FDM-Beginner deutlich erweitert und Erläuterungen für die Durchführung partizipativer Strategieprozesse hinzugefügt. In Zusammenarbeit mit der Hochschule für Angewandte Wissenschaften Hamburg entstand außerdem ein digitales Evaluations-Tool.
Mit RISE-DE liegt als FDMentor-Projektergebnis ein Referenzmodell für Strategieprozesse im institutionellen Forschungsdatenmanagement vor. RISE-DE bietet einen Bewertungsrahmen zur Selbstevaluation und Zielbestimmung und eignet sich als Werkzeug zur Gestaltung einer strukturierten, Stakeholder-orientierten Strategieentwicklung für das Forschungsdatenmanagement an Hochschulen und Forschungseinrichtungen.
RISE-DE basiert auf dem lose an Reifegradenmodellen orientierten RISE-Framework des DCC (RISE v1.1), wurde aber für den Einsatz in partizipativen Prozessen deutlich überarbeitet sowie inhaltlich an den deutschen Wissenschaftskontext und Entwicklungen in der guten Praxis im FDM angepasst. Ein mit Hilfe von RISE-DE erarbeitete Strategie erfüllt zugleich die von der Hochschulrektorenkonferenz und der League of European Research Universities formulierten Anforderungen.
Nicht im Trüben fischen
(2021)
Nicht im Trüben fischen
(2021)
Die große Bedeutung der Informationstechnologie für die Wissenschaftsdisziplinen und die zentralen Infrastruktureinrichtungen der Hochschulen steht heutzutage außer Frage. Der Beitrag liefert einen historischen Überblick über die Einführung und Weiterentwicklung der IT in deutschen Hochschulen von den 1950er-Jahren bis heute, wobei der Fokus auf den Bibliotheken und Rechenzentren liegt. Es zeigt sich, dass die verschiedenen Phasen der Technologieentwicklung zu heterogenen IT-Organisationsstrukturen in den Hochschulen geführt haben. DFG und HRK empfehlen daher seit 20 Jahren die Klärung der Verantwortlichkeiten im Rahmen einer IT-Governance sowie die Implementierung eines CIO-Modells. Wie verschiedene Studien zeigen, ist die Umsetzung in der deutschen Hochschullandschaft bislang jedoch nur in Teilen gelungen. Die Herausforderung an vielen Hochschulen besteht nach wie vor darin, die IT-Organisation aus ihrer reaktiven Rolle zu befreien und zu einem aktiven Treiber der digitalen Transformation umzubauen.
Data errors represent a major issue in most application workflows. Before any important task can take place, a certain data quality has to be guaranteed by eliminating a number of different errors that may appear in data. Typically, most of these errors are fixed with data preparation methods, such as whitespace removal. However, the particular error of duplicate records, where multiple records refer to the same entity, is usually eliminated independently with specialized techniques. Our work is the first to bring these two areas together by applying data preparation operations under a systematic approach prior to performing duplicate detection. <br /> Our process workflow can be summarized as follows: It begins with the user providing as input a sample of the gold standard, the actual dataset, and optionally some constraints to domain-specific data preparations, such as address normalization. The preparation selection operates in two consecutive phases. First, to vastly reduce the search space of ineffective data preparations, decisions are made based on the improvement or worsening of pair similarities. Second, using the remaining data preparations an iterative leave-one-out classification process removes preparations one by one and determines the redundant preparations based on the achieved area under the precision-recall curve (AUC-PR). Using this workflow, we manage to improve the results of duplicate detection up to 19% in AUC-PR.
The integration of multiple data sources is a common problem in a large variety of applications. Traditionally, handcrafted similarity measures are used to discover, merge, and integrate multiple representations of the same entity-duplicates-into a large homogeneous collection of data. Often, these similarity measures do not cope well with the heterogeneity of the underlying dataset. In addition, domain experts are needed to manually design and configure such measures, which is both time-consuming and requires extensive domain expertise. <br /> We propose a deep Siamese neural network, capable of learning a similarity measure that is tailored to the characteristics of a particular dataset. With the properties of deep learning methods, we are able to eliminate the manual feature engineering process and thus considerably reduce the effort required for model construction. In addition, we show that it is possible to transfer knowledge acquired during the deduplication of one dataset to another, and thus significantly reduce the amount of data required to train a similarity measure. We evaluated our method on multiple datasets and compare our approach to state-of-the-art deduplication methods. Our approach outperforms competitors by up to +26 percent F-measure, depending on task and dataset. In addition, we show that knowledge transfer is not only feasible, but in our experiments led to an improvement in F-measure of up to +4.7 percent.
Entwickelt wird ein Dokument Management System zur elektronischen, Client-Server-basierten Publikation und Langzeitarchivierung von Hochschulschriften für die Universitätsbibliothek Potsdam. Der zu konzipierende Dokumentenserver muss den bibliothekarischen Anforderungen im Hinblick auf die Sicherung von Authentizität und Integrität des Servers und der einzelnen Textdokumente entsprechen. Eine Analyse der Eignung verbreiteter Dateiformate zur dauerhaften Speicherung unter Berücksichtigung von Verfügbarkeit, Strukturierbarkeit, Konvertierbarkeit und Austauschbarkeit sowie Recherchierbarkeit erbringt eine langfristig anzustrebende Präferenz für XML als Archivierungs- und Rechercheformat sowie PDF und/oder HTML als Präsentationsformate. Die Formalerfassung erfolgt über die Anreicherung des Dokumentes mit Metadaten nach dem DC qualified Standard, die in einer Datenbank strukturiert abgelegt sind. Der dauerhafte Zugang zur Publikation kann durch Verwendung einer zitierfähigen URN (Persistent Identifier) gesichert werden. Bestehende Archivierungssysteme werden untersucht und auf Vereinbarkeit mit den lokalen Bedürfnissen geprüft. Ein Workflow für die Anlieferung von Dokument und beschreibenden Metadaten durch den Autor und die weitere Bearbeitung durch die Bibliothek wird erarbeitet und die technische Umsetzung mittels Perl, HTML, XML und einer MS Access Datenbank beschrieben. Der Dokumentenserver ermöglicht performantes Retrieval und ist als Dataprovider mit einer OAI-Schnittstelle für den weltweiten, standardisierten Datenaustausch ausgestattet. Das System kann in wissenschaftlichen Informationseinrichtungen als Internet- oder Intranet-Repositorium eingesetzt werden. (Fremdreferat)
Die Deutsche Geologische Gesellschaft (DGG) besitzt seit ihrer Gründung 1848 eine Bibliothek, die bis heute durch Schriftentausch ständig erweitert wird. Durch die geschichtlichen Entwicklungen in Deutschland befand sich der von 1848 bis 1944 angesammelte Bestand in Berlin und der ab 1945 erworbene Bestand in Hannover. 1992 wurde die Bibliothek der DGG der UB Potsdam als Dauerleihgabe übergeben und damit erstmals an einem Ort zusammengeführt. Beide Bibliotheksteile enthalten je eine umfangreiche Sammlung geologischer Karten. Während die Berliner Kartensammlung vor allem antiquarischen Wert hat, ist die Hannoveraner Sammlung von großem aktuellen Interesse. Wertvollster Teil der Kartensammlungen ist die weitgehendvollständig vorhandene Geologische Spezialkarte für Preußen im Maßstab 1:25000. Die Karten der Berliner Kartensammlung sind bibliographisch nur unvollständig verzeichnet, während die Hannoveraner Karten in einem Gruppenschlagwortkatalog erschlossen sind. Den Vertragsbedingungen entsprechend ist vorgesehen, beide Sammlungen retrospektiv einheitlich zu erschließen. Mittels Umfrage in 20 Bibliotheken wurden die verschiedenen Methoden der Sacherschließung von Kartensammlungen zusammengetragen. Es zeigte sich, daß diese je nach Bibliothekstyp sehr unterschiedlich sind. Für die sachliche Erschließung der DGG-Karten wird vorgeschlagen, die Aufstellungssystematik der Universitätsbibliothek Regensburg, Fachsystematik Geographie, anzuwenden, einen entsprechenden systematischen Katalog mit Verweisungen und Nebensystemstellen aufzubauen und ein Schlagwortregister nach RSWK/ SWD zu führen.
Nachlässe sind persönliches Eigentum und unterliegen deshalb keiner Abgabepflicht. Der Wunsch des Nachlassers bezüglich der weiteren Aufbewahrung seines schriftlichen Erbes ist demzufolge primär gegenüber allen unseren Wünschen. Wir können nicht fordern, sondern nur bitten, uns durch eigene Leistungen anbieten und die zukünftigen Nachlassenden oder deren Erben überzeugen. Die nicht vorhandene institutionelle Zuständigkeit für die Übernahme von Nachlässen erzeugt die Reibungspunkte zwischen den Einrichtungen, die sich um den Erwerb von Nachlässen bemühen: Archive – Bibliotheken – Museen - Sammlungen. Die Wünsche zum Erwerb des Nachlasses einer bestimmten Person – egal ob Wissenschaftler, Künstler oder Politiker – sind demzufolge immer an verschiedenen Orten gleichzeitig vorhanden. Der Zufall entscheidet dann leider meist darüber, an welcher Stelle der Nachlass zukünftig verwahrt und wissenschaftlich genutzt wird. Es stellt sich die Frage, ob wir auf solche Zufälle hoffen und warten sollen, oder ob wir nicht eher eine engagierte – gemeinsam zwischen den Archiven abgestimmte - Erwerbspolitik betrieben sollten. ------------ Beiträge zum Thema "Nachlässe an Universitäts- und Hochschularchiven sowie Archiven wissenschaftlicher Institutionen" im Rahmen der Frühjahrstagung der Fachgruppe 8: "Archivare an Hochschularchiven und Archiven wissenschaftlicher Institutionen" am 16./17. Juni an der Universität Potsdam.
Die effektive Erzeugung von Wissen ist eine der zentralen Herausforderungen des 21. Jahrhunderts. Informations- und Kommunikationstechnologien, wie die Neuen Medien, durchdringen alle Bereiche des täglichen Lebens. Sie ermöglichen den Zugriff auf gigantische Datenmengen, die die Grundvoraussetzung für die Generierung von Wissen darstellen, aber gleichzeitig eine Datenflut bedeuten, der wir ohnmächtig gegenüberstehen. Innerhalb der raumwissenschaftlichen Fachdisziplinen spielen die Neuen Medien für die Kommunikation von Sachinformation eine wichtige Rolle. Die internetbasierte Distribution von Karten, angereichert mit zusätzlichen Informationen in Form von Audiosequenzen oder Filmausschnitten, spiegelt diese Entwicklung wieder. Vor diesem Hintergrund erfolgt die Untersuchung der Frage, ob Neue Medien dazu genutzt werden können, raumwissenschaftliche Fachinhalte zu vermitteln. Von besonderem Interesse ist dabei die Frage, ob durch den Einsatz Neuer Medien in der Lehre ein Mehrwert für die Benutzer entsteht. Der Ausgangspunkt dieser Forschungsfrage besteht in der herausragenden Bedeutung von Visualisierung zur leicht verständlichen Darstellung komplexer Sachverhalte, sowie der entsprechenden Werkzeug- und Methodenkompetenz für die Nutzung Neuer Medien in den raumwissen-schaftlichen Disziplinen. Die Grundlage für die Entwicklung von mehrwertigen Lernangeboten ist die Betrachtung von Lernen als Kommunikationsprozess zur Konstruktion von Wissen, was bedeutet, dass der Entwickler derartiger Angebote über Möglichkeiten zur Optimierung dieses Kommunikationsprozesses verfügt. Auf dieser Basis erfolgt eine Erweiterung des in den raumwissenschaftlichen Disziplinen verwendeten Kommunikationsbegriffs um den Aspekt der Lehre von Fachinhalten. Als relevante Ansatzpunkte für die Optimierung der Kommunikation von Fachinhalten werden die didaktische und die mediale Aufbereitung identifiziert. Diese können zum einen die Motivation der Lernenden positiv beeinflussen und zum anderen durch Wirkung auf die Wahrnehmung der Lernenden zu einem vereinfachten Verständnis beitragen. Im Mittelpunkt der didaktischen Aufbereitung steht die problemorientierte Vermittlung der Inhalte, d.h. sie werden anhand konkreter Problemsituationen aus der Praxis vermittelt und gelten deshalb als besonders anschaulich und anwendungsorientiert. Bei der medialen Aufbereitung steht die Verwendung einer Kombination aus Text und Graphik/Animation im Mittelpunkt, die darauf abzielt, das Verstehen komplexer Sachverhalte zu erleichtern. Zur Überprüfung der Forschungsfrage haben Studierende raumwissenschaftlicher Studiengänge der Universität Potsdam das Lernangebot ausprobiert und anhand eines Fragebogens verschiedene Aspekte bewertet. Themenschwerpunkt dieser Evaluation waren die Akzeptanz, die Bedienbarkeit, die didak-tische und mediale Aufbereitung der Inhalte, die Auswahl und Verständlichkeit der Inhalte sowie die Praxistauglichkeit. Ein Großteil der Befragten hat dem Lernangebot einen Mehrwert gegenüber konventionellen Bildungsangeboten bescheinigt. Als Aspekte dieses Mehrwertes haben sich vor allem die Praxisnähe, die Unabhängigkeit von Zeit und Ort bei der Nutzung und die Vermittlung der Inhalte auf der Grundlage einer Kombination aus Text und interaktiven Animationen herauskristallisiert.
Intention der Arbeit war es, die bibliothekarische Fachwelt zunächst auf den Begriff und die Bedeutung des Bürgerhaushaltes aufmerksam zu machen und eine Auseinandersetzung mit der Thematik zu fördern. Die Öffentliche Bibliothek kann ein Diskussions- bzw. Beteiligungsgegenstand zwischen Bürgerschaft und Politik sowie Verwaltung sein, wenn es im partizipatorischen Verfahren des Bürgerhaushaltes darum geht, Modernisierungsergebnisse in einer Stadt durch gezielte Finanzierung zu erlangen. Eruiert wurde, ob der Bürgerhaushalt das Potential hat, zur Modernisierung von Dienstleistungen Öffentlicher Bibliotheken beizutragen. Mittels Interviews wurden Informationen gesammelt, aufbereitet und ausgewertet.
Spurensuche
(2014)
Mehr Chancen als Risiken
(2011)
Anne Christensen spricht von partizipativer Entwicklung, wenn sie sich zum Komplex Bibliothek 2.0 äußert, und meint damit primär die stärkere Einbeziehung der Benutzer, wenn es um die Zukunft der kollaborativen Erschließung von Medien in Bibliothekskatalogen geht.1 Diese Art der Partizipation tangiert Kernaufgaben sowohl an Öffentlichen als auch an wissenschaftlichen Bibliotheken. Über die Beteiligung der Benutzer am Katalog 2.0 hinaus könnte auch durch eine weitere Form der Partizipation Einfl uss auf die Zukunft Öffentlicher Bibliotheken genommen werden: durch den Bürgerhaushalt.
Sich der Diskussion stellen
(2012)
Die Zukunftswerkstatt wollte wissen, ob Konzepte wie Liquid Democracy (http://liqd.net/) und Plattformen wie Adhocracy (http://code.adhocracy.de/) oder AVAAZ (www.avaaz.org/ de/) konkret für das Bibliothekswesen eingesetzt werden können. Die Beteiligung an der Internet-Enquete Kommission des Bundestages (https://enquetebeteiligung. de/) zeigte, dass die Nutzung im Sinne von gemeinschaftlicher Politikberatung möglich ist. Die »Stop SOPA/PIPA«- und die »Anti-ACTA«-Mobilisierungen belegen, dass Politik immer mehr auf die Bürger eingehen muss – und Social Media mitnichten tot sind. Heike Stadler beschäftigt sich intensiv mit dem Thema »Bürgerbeteiligungen für Bibliotheken« (siehe unter anderem BuB Heft 6/2011, Seite 450). Hier ihr Beitrag für die Zukunftswerkstatt
Der Bürger entscheidet mit
(2011)
»Warum erregt der geplante Abriss eines Bahnhofs die Nation, während gegen das hundertfache Sterben von Bibliotheken immer nur ein paar Stimmen laut werden? Wo sind die Wutbürger, wenn man sie braucht?«, überlegte sich hierzulande Tilman Spreckelsen.1 Die Kernfrage lautet also: Stehen die Bürger eigentlich hinter der Bibliothek? Ob und wie die Bürgerschaft für ihre Öffentliche Bibliothek entscheidet, wenn sie entscheiden darf, wird im vorliegenden Aufsatz thematisiert. Ergebnisse von Bürgerbegehren und Bürgerentscheiden stehen dabei im Fokus, da bürgerschaftliches Engagement bei diesen Mitwirkungsinstrumenten besonders gefragt ist und es gleichzeitig kommunalpolitische Folgen haben kann. Am Beispiel von Stuttgart 21 wird darüber hinaus der Fragestellung nachgegangen, wie sich eine Öffentliche Bibliothek zu Sachverhalten positioniert, die (nicht nur) kommunalpolitisch brisant sind.
Die Universität Potsdam verwaltet seit 2015 einen DFG-geförderten Publikationsfonds. In den Publikationsjahren 2015 und 2017 wurden Outputanalysen durchgeführt. Open Access ist seit 2018 ein zentraler Bestandteil des Mittelverteilungsmodells. Der Artikel thematisiert die zentralen Erkenntnisse der letzten fünf Jahre und illustriert die entstandene Infrastruktur. Außerdem werden aktuelle Herausforderungen und mögliche Lösungsansätze der Transformation auf dem Weg hin zu 100 Prozent Open Access thematisiert.
Die Universität Potsdam verwaltet seit 2015 einen DFG-geförderten Publikationsfonds. In den Publikationsjahren 2015 und 2017 wurden Outputanalysen durchgeführt. Open Access ist seit 2018 ein zentraler Bestandteil des Mittelverteilungsmodells. Der Artikel thematisiert die zentralen Erkenntnisse der letzten fünf Jahre und illustriert die entstandene Infrastruktur. Außerdem werden aktuelle Herausforderungen und mögliche Lösungsansätze der Transformation auf dem Weg hin zu 100 Prozent Open Access thematisiert.
Die Veränderungen im Bereich der Literaturerwerbung und -nutzung innerhalb der letzten sieben Jahre haben einen Neuentwurf des Mittelverteilungsmodells der Universitätsbibliothek Potsdam unumgänglich gemacht. Dieser gliedert sich klar in Segmente und verankert erstmals auch Open Access im Bibliotheksetat. Damit wird dem angestrebten Transformationsprozess Rechnung getragen.
Es darf gekocht werden
(2019)
Eine achtköpfige Delegation der Universität Potsdam (UP) besuchte vom 18. bis 21. November 2018 die Tel Aviv University (TAU) in Israel. Die Kooperation zwischen beiden Einrichtungen wurde durch einen »staff exchange« intensiviert. So konnten Mitarbeiter*innen der UP ihren Gegenpart an der TAU kennenlernen und sich inhaltlich austauschen. Der vorliegende Bericht basiert auf Gesprächen mit drei der insgesamt fünf Bibliotheksdirektorinnen sowie zwei weiteren Kolleginnen aus dem Bereich Erwerbung und Katalogisierung. Dabei wurden unterschiedliche Themenbereiche aus dem Bibliothekswesen und die Sicht beziehungsweise der Stand dazu an der TAU und der UP angesprochen. Der vorliegende Bericht geht auf die Themenfelder Bibliothekssystem, Open Access und Bibliothek als Raum ein.
Es darf gekocht werden
(2019)
Eine achtköpfige Delegation der Universität Potsdam (UP) besuchte vom 18. bis 21. November 2018 die Tel Aviv University (TAU) in Israel. Die Kooperation zwischen beiden Einrichtungen wurde durch einen »staff exchange« intensiviert. So konnten Mitarbeiter*innen der UP ihren Gegenpart an der TAU kennenlernen und sich inhaltlich austauschen. Der vorliegende Bericht basiert auf Gesprächen mit drei der insgesamt fünf Bibliotheksdirektorinnen sowie zwei weiteren Kolleginnen aus dem Bereich Erwerbung und Katalogisierung. Dabei wurden unterschiedliche Themenbereiche aus dem Bibliothekswesen und die Sicht beziehungsweise der Stand dazu an der TAU und der UP angesprochen. Der vorliegende Bericht geht auf die Themenfelder Bibliothekssystem, Open Access und Bibliothek als Raum ein.
Die Veränderungen im Bereich der Literaturerwerbung und -nutzung innerhalb der letzten sieben Jahre haben einen Neuentwurf des Mittelverteilungsmodells der Universitätsbibliothek Potsdam unumgänglich gemacht. Dieser gliedert sich klar in Segmente und verankert erstmals auch Open Access im Bibliotheksetat. Damit wird dem angestrebten Transformationsprozess Rechnung getragen.
Die Universität Potsdam hat 2018 zum zweiten Mal erfolgreich am Times Higher Education-Ranking (THE-Ranking) teilgenommen. Hierfür wurde erneut das Publikationsaufkommen inklusive der Verbreitung der IDs von Autorinnen und Autoren, wie bspw. ORCiD, Researcher-ID oder Google Scholar-ID, ermittelt. Die aus den Erkenntnissen der ersten bibliometrischen Output-Analyse abgeleiteten Maßnahmen wurden nun hinsichtlich ihrer Wirksamkeit beurteilt. Der vorliegende Artikel vergleicht die Ergebnisse beider Analysen und thematisiert die Entwicklungen und Implikationen seit dem Ergreifen der ersten Maßnahmen.
Die Universität Potsdam hat 2018 zum zweiten Mal erfolgreich am Times Higher Education-Ranking (THE-Ranking) teilgenommen. Hierfür wurde erneut das Publikationsaufkommen inklusive der Verbreitung der IDs von Autorinnen und Autoren, wie bspw. ORCiD, Researcher-ID oder Google Scholar-ID, ermittelt. Die aus den Erkenntnissen der ersten bibliometrischen Output-Analyse abgeleiteten Maßnahmen wurden nun hinsichtlich ihrer Wirksamkeit beurteilt. Der vorliegende Artikel vergleicht die Ergebnisse beider Analysen und thematisiert die Entwicklungen und Implikationen seit dem Ergreifen der ersten Maßnahmen.
Veröffentlicht wird die Textfassung eines Vortrages, welcher am 16. April 2015 auf dem 9. Konsortialtag des Friedrich-Althoff-Konsortium e.V. in Potsdam gehalten wurde. Hintergrund des Vortrages war die aktive Auseinandersetzung der Institution mit vorhandenen Lizenzrechten. Auf dieser Basis wurde ein Workflow zur Identifizierung von Publikationen für die Zweitveröffentlichung erarbeitet. Der vorgestellte Workflow umfasst sieben Schritte, von denen fünf näher erläutert und mit Beispielen einzelner Lizenzen/Verlage unterlegt wurden.
Veröffentlicht wird die Textfassung eines Vortrages, welcher am 18. April 2018 auf dem 10. Konsortialtag des Friedrich-Althoff-Konsortium e.V. in Berlin gehalten wurde. Zentrale Aussagen zum Publikationsaufkommen und zum Publikationsfonds der Universität Potsdam sind Bestandteile des Vortrages. Weiterhin wird die Verwaltung der Article Processing Charges (APC), welche im Dezernat Medienbearbeitung der Universitätsbibliothek verankert ist, thematisiert.
Verfügbare Allianz- und Nationallizenzen können eine Open-Access-Komponente beinhalten. Diese räumen den autorisierten Autoren oder Einrichtungen bestimmte Open-Access-Rechte zur Zweitveröffentlichung ein. Vorhandene Lizenzrechte zur Realisierung des Grünen Weges können somit zukünftig verstärkt genutzt werden. Dabei kann die Bibliothek eine aktive Rolle einnehmen. Präsentiert wird ein Workflow, der sich an der Checkliste für Repository-Manager orientiert. Sieben herausgearbeitete Schritte werden genannt und näher erläutert. An Beispielen wurde der Workflow getestet. Die Ergebnisse werden ebenfalls vorgestellt. Die Erweiterung des Workflows zur Identifizierung von Publikationen für die Zweitveröffentlichung lässt sich ggf. auch auf Creative-Commons-Lizenzen anwenden bzw. auf Zeitschriften, die keine Open-Access-Komponente haben.
Verfügbare Allianz- und Nationallizenzen können eine Open-Access-Komponente beinhalten. Diese räumen den autorisierten Autoren oder Einrichtungen bestimmte Open-Access-Rechte zur Zweitveröffentlichung ein. Vorhandene Lizenzrechte zur Realisierung des Grünen Weges können somit zukünftig verstärkt genutzt werden. Dabei kann die Bibliothek eine aktive Rolle einnehmen. Präsentiert wird ein Workflow, der sich an der Checkliste für Repository-Manager orientiert. Sieben herausgearbeitete Schritte werden genannt und näher erläutert. An Beispielen wurde der Workflow getestet. Die Ergebnisse werden ebenfalls vorgestellt. Die Erweiterung des Workflows zur Identifizierung von Publikationen für die Zweitveröffentlichung lässt sich ggf. auch auf Creative-Commons-Lizenzen anwenden bzw. auf Zeitschriften, die keine Open-Access-Komponente haben.
PyFin-sentiment
(2023)
Responding to the poor performance of generic automated sentiment analysis solutions on domain-specific texts, we collect a dataset of 10,000 tweets discussing the topics of finance and investing. We manually assign each tweet its market sentiment, i.e., the investor’s anticipation of a stock’s future return. Using this data, we show that all existing sentiment models trained on adjacent domains struggle with accurate market sentiment analysis due to the task’s specialized vocabulary. Consequently, we design, train, and deploy our own sentiment model. It outperforms all previous models (VADER, NTUSD-Fin, FinBERT, TwitterRoBERTa) when evaluated on Twitter posts. On posts from a different platform, our model performs on par with BERT-based large language models. We achieve this result at a fraction of the training and inference costs due to the model’s simple design. We publish the artifact as a python library to facilitate its use by future researchers and practitioners.