Refine
Year of publication
Document Type
- Article (25) (remove)
Is part of the Bibliography
- yes (25)
Keywords
- Open Access (4)
- Zweitveröffentlichung (3)
- Affiliation (2)
- Bibliometrie (2)
- Forschungsdatenmanagement (2)
- Output-Analyse (2)
- Outputanalyse (2)
- Publikationsfonds (2)
- output analysis (2)
- Agrarwissenschaft (1)
Institute
- Universitätsbibliothek (25) (remove)
We present a new set of global and local sea‐level projections at example tide gauge locations under the RCP2.6, RCP4.5, and RCP8.5 emissions scenarios. Compared to the CMIP5‐based sea‐level projections presented in IPCC AR5, we introduce a number of methodological innovations, including (i) more comprehensive treatment of uncertainties, (ii) direct traceability between global and local projections, and (iii) exploratory extended projections to 2300 based on emulation of individual CMIP5 models. Combining the projections with observed tide gauge records, we explore the contribution to total variance that arises from sea‐level variability, different emissions scenarios, and model uncertainty. For the period out to 2300 we further breakdown the model uncertainty by sea‐level component and consider the dependence on geographic location, time horizon, and emissions scenario. Our analysis highlights the importance of local variability for sea‐level change in the coming decades and the potential value of annual‐to‐decadal predictions of local sea‐level change. Projections to 2300 show a substantial degree of committed sea‐level rise under all emissions scenarios considered and highlight the reduced future risk associated with RCP2.6 and RCP4.5 compared to RCP8.5. Tide gauge locations can show large ( > 50%) departures from the global average, in some cases even reversing the sign of the change. While uncertainty in projections of the future Antarctic ice dynamic response tends to dominate post‐2100, we see substantial differences in the breakdown of model variance as a function of location, time scale, and emissions scenario.
Transform2Open
(2022)
Digitalisierung ist und bleibt in aller Munde. Spätestens mit Beginn der Corona-Pandemie und dem Wechsel vieler Mitarbeiter:innen ins Homeoffice sind die Notwendigkeiten und Anforderungen noch einmal deutlich gestiegen. Hinzu kommen diverse rechtliche Rahmenbedingungen (E-Government-Gesetze, OZG, SDG), die als Treiber der Digitalisierung fungieren. Wie aber kann die Verwaltungsdigitalisierung an einer Hochschule effizient und nachhaltig organisiert werden?
Die große Bedeutung der Informationstechnologie für die Wissenschaftsdisziplinen und die zentralen Infrastruktureinrichtungen der Hochschulen steht heutzutage außer Frage. Der Beitrag liefert einen historischen Überblick über die Einführung und Weiterentwicklung der IT in deutschen Hochschulen von den 1950er-Jahren bis heute, wobei der Fokus auf den Bibliotheken und Rechenzentren liegt. Es zeigt sich, dass die verschiedenen Phasen der Technologieentwicklung zu heterogenen IT-Organisationsstrukturen in den Hochschulen geführt haben. DFG und HRK empfehlen daher seit 20 Jahren die Klärung der Verantwortlichkeiten im Rahmen einer IT-Governance sowie die Implementierung eines CIO-Modells. Wie verschiedene Studien zeigen, ist die Umsetzung in der deutschen Hochschullandschaft bislang jedoch nur in Teilen gelungen. Die Herausforderung an vielen Hochschulen besteht nach wie vor darin, die IT-Organisation aus ihrer reaktiven Rolle zu befreien und zu einem aktiven Treiber der digitalen Transformation umzubauen.
Dieser Artikel thematisiert die technische Umsetzung eines Webportals und einer SQL-Datenbank (Output.UP), um die manuelle Erfassung und Auswertung von wissenschaftlichen Publikationen für die Universitätsbibliothek Potsdam weitestgehend zu automatisieren. Ein besonderes Augenmerk wird auf die Importe mittels API von ORCID, Crossref und Unpaywall gelegt. Nach Abschluss der Testphase wird Output.UP in einem Git-Repository für die Nachnutzung zur Verfügung gestellt.
Nicht im Trüben fischen
(2021)
Die Setzung strategischer Ziele sowie die Zuordnung und Umsetzung dazugehörender Maßnahmen sind ein wesentliches Element, um die Innovationsfähigkeit von Organisationen zu erhalten. In den vergangenen Jahren ist auch an Hochschulen die Strategiebildung deutlich vorangetrieben worden. Dies betrifft verschiedene Handlungsfelder, und es werden verschiedene Ansätze verfolgt. Der vorliegende Beitrag greift am Beispiel der Universität Potsdam drei in den vergangenen Jahren adressierte Strategiebereiche heraus: IT, E-Learning und Forschungsdaten. Die damit verbundenen Prozesse waren in unterschiedlichem Maß von Partizipation geprägt. Die gesammelten Erfahrungen werden reflektiert, und es werden Empfehlungen für Strategieentwicklungsprozesse abgeleitet.
Es darf gekocht werden
(2019)
Eine achtköpfige Delegation der Universität Potsdam (UP) besuchte vom 18. bis 21. November 2018 die Tel Aviv University (TAU) in Israel. Die Kooperation zwischen beiden Einrichtungen wurde durch einen »staff exchange« intensiviert. So konnten Mitarbeiter*innen der UP ihren Gegenpart an der TAU kennenlernen und sich inhaltlich austauschen. Der vorliegende Bericht basiert auf Gesprächen mit drei der insgesamt fünf Bibliotheksdirektorinnen sowie zwei weiteren Kolleginnen aus dem Bereich Erwerbung und Katalogisierung. Dabei wurden unterschiedliche Themenbereiche aus dem Bibliothekswesen und die Sicht beziehungsweise der Stand dazu an der TAU und der UP angesprochen. Der vorliegende Bericht geht auf die Themenfelder Bibliothekssystem, Open Access und Bibliothek als Raum ein.
Die Universität Potsdam verwaltet seit 2015 einen DFG-geförderten Publikationsfonds. In den Publikationsjahren 2015 und 2017 wurden Outputanalysen durchgeführt. Open Access ist seit 2018 ein zentraler Bestandteil des Mittelverteilungsmodells. Der Artikel thematisiert die zentralen Erkenntnisse der letzten fünf Jahre und illustriert die entstandene Infrastruktur. Außerdem werden aktuelle Herausforderungen und mögliche Lösungsansätze der Transformation auf dem Weg hin zu 100 Prozent Open Access thematisiert.
Die Universität Potsdam hat 2018 zum zweiten Mal erfolgreich am Times Higher Education-Ranking (THE-Ranking) teilgenommen. Hierfür wurde erneut das Publikationsaufkommen inklusive der Verbreitung der IDs von Autorinnen und Autoren, wie bspw. ORCiD, Researcher-ID oder Google Scholar-ID, ermittelt. Die aus den Erkenntnissen der ersten bibliometrischen Output-Analyse abgeleiteten Maßnahmen wurden nun hinsichtlich ihrer Wirksamkeit beurteilt. Der vorliegende Artikel vergleicht die Ergebnisse beider Analysen und thematisiert die Entwicklungen und Implikationen seit dem Ergreifen der ersten Maßnahmen.
Hochschulen und deren Zentraleinrichtungen beschäftigen sich zunehmend mit dem Thema Forschungsdatenmanagement (FDM), um ihre Forschenden adäquat zu unterstützen. Nicht zuletzt aufgrund neuer Verlags- und Förderanforderungen wünschen sich Forschende Beratung und Orientierung, wie sie mit ihren Forschungsdaten umgehen sollen. Damit Hochschulen schnell und nachhaltig Lösungen zum institutionellen FDM etablieren können, haben fünf Berliner und Brandenburger Universitäten im gemeinsamen Verbundvorhaben FDMentor mit Förderung des Bundesministeriums für Bildung und Forschung (BMBF) entsprechende Leitfäden und Werkzeuge erarbeitet. Die innerhalb von zwei Jahren (2017–2019) entstandenen Ergebnisse in den Bereichen Strategieentwicklung, Forschungsdaten-Policy, rechtliche Aspekte und Kompetenzausbau finden über das Verbundprojekt hinaus ihre Anwendung.
Am Beispiel der Erd- und Umweltwissenschaften (einschließlich der landschafts- und standortbezogenen Teilgebiete der Agrarwissenschaften) zeigt dieser Beitrag, dass auch in scheinbar „unverdächtigen“ Disziplinen personenbezogene Forschungsdaten vorkommen. Eine Auswertung der Literatur zeigt, dass allgemeine Handreichungen zum Datenschutz in der Forschung kaum Unterstützung bei der Arbeit mit den für diese Disziplinen besonders relevanten Fällen bieten. Für die in den Erd- und Umweltwissenschaften besonders relevanten raumbezogenen Daten kommt hinzu, dass selbst unter Fachjuristinnen Uneinigkeit über die datenschutzrechtliche Bewertung herrscht. Die Ergebnisse einer empirischen Vorstudie zeigen eine ganze Reihe verschiedener Arten personenbezogener Forschungsdaten auf, die in der Forschungspraxis der Erd- und Umweltwissenschaften eine Rolle spielen. Sie legen außerdem nahe, dass der Umgang mit personenbezogenen Daten in der Forschungspraxis der Erd- und Umweltwissenschaften auf Grund der mangelnden Vertrautheit mit dem Datenschutz nicht immer den rechtlichen Anforderungen entspricht. Auch Unterstützung durch Fachgesellschaften und Infrastruktureinrichtungen – etwa in Form disziplinspezifischer Handreichungen, qualifizierter Beratung oder institutionalisierten Möglichkeiten, Daten sicher zu archivieren und gegebenenfalls zugangsbeschränkt zu publizieren – bestehen kaum. Aus dieser Situation ergeben sich Herausforderungen an die Weiterentwicklung der disziplinären Datenkultur und Dateninfrastruktur, beispielsweise im Rahmen des Prozesses zum Aufbau einer Nationalen Forschungsdateninfrastruktur (NFDI). Zu den Möglichkeiten für Infrastruktureinrichtungen, diese Weiterentwicklung zu unterstützen, zeigt dieser Beitrag Handlungsoptionen auf.
Die Veränderungen im Bereich der Literaturerwerbung und -nutzung innerhalb der letzten sieben Jahre haben einen Neuentwurf des Mittelverteilungsmodells der Universitätsbibliothek Potsdam unumgänglich gemacht. Dieser gliedert sich klar in Segmente und verankert erstmals auch Open Access im Bibliotheksetat. Damit wird dem angestrebten Transformationsprozess Rechnung getragen.
Veröffentlicht wird die Textfassung eines Vortrages, welcher am 18. April 2018 auf dem 10. Konsortialtag des Friedrich-Althoff-Konsortium e.V. in Berlin gehalten wurde. Zentrale Aussagen zum Publikationsaufkommen und zum Publikationsfonds der Universität Potsdam sind Bestandteile des Vortrages. Weiterhin wird die Verwaltung der Article Processing Charges (APC), welche im Dezernat Medienbearbeitung der Universitätsbibliothek verankert ist, thematisiert.
In Vorbereitung zur Teilnahme am Times Higher Education Ranking hat die Universität Potsdam das Publikationsaufkommen im Rahmen einer Output-Analyse gemessen. Es stellte sich heraus, dass die Angabe der Affiliation, welche die Wissenschaftlerinnen und Wissenschaftler tätigen, eine wichtige Stellschraube zur Ermittlung der Grundzahl ist. Der vorliegende Artikel spiegelt die herausfordernde Ausgangssituation wider.
Verfügbare Allianz- und Nationallizenzen können eine Open-Access-Komponente beinhalten. Diese räumen den autorisierten Autoren oder Einrichtungen bestimmte Open-Access-Rechte zur Zweitveröffentlichung ein. Vorhandene Lizenzrechte zur Realisierung des Grünen Weges können somit zukünftig verstärkt genutzt werden. Dabei kann die Bibliothek eine aktive Rolle einnehmen. Präsentiert wird ein Workflow, der sich an der Checkliste für Repository-Manager orientiert. Sieben herausgearbeitete Schritte werden genannt und näher erläutert. An Beispielen wurde der Workflow getestet. Die Ergebnisse werden ebenfalls vorgestellt. Die Erweiterung des Workflows zur Identifizierung von Publikationen für die Zweitveröffentlichung lässt sich ggf. auch auf Creative-Commons-Lizenzen anwenden bzw. auf Zeitschriften, die keine Open-Access-Komponente haben.
Veröffentlicht wird die Textfassung eines Vortrages, welcher am 16. April 2015 auf dem 9. Konsortialtag des Friedrich-Althoff-Konsortium e.V. in Potsdam gehalten wurde. Hintergrund des Vortrages war die aktive Auseinandersetzung der Institution mit vorhandenen Lizenzrechten. Auf dieser Basis wurde ein Workflow zur Identifizierung von Publikationen für die Zweitveröffentlichung erarbeitet. Der vorgestellte Workflow umfasst sieben Schritte, von denen fünf näher erläutert und mit Beispielen einzelner Lizenzen/Verlage unterlegt wurden.