Refine
Year of publication
Document Type
- Article (25)
- Monograph/Edited Volume (12)
- Postprint (11)
- Other (4)
- Report (4)
- Working Paper (4)
- Bachelor Thesis (1)
- Part of a Book (1)
- Preprint (1)
- Review (1)
Keywords
- Forschungsdaten (9)
- Forschungsdatenmanagement (7)
- Open Access (7)
- Zweitveröffentlichung (5)
- Affiliation (4)
- Bibliometrie (4)
- Output-Analyse (4)
- Agrarwissenschaft (3)
- Datenschutz (3)
- Geowissenschaften (3)
Institute
- Universitätsbibliothek (64) (remove)
Das Forschungsprojekt „Workflow-Management-Systeme für Open-Access-Hochschulverlage (OA-WFMS)” ist eine Kooperation zwischen der HTWK Leipzig und der Universität Potsdam. Ziel ist es, die Bedarfe von Universitäts- und Hochschulverlagen und Anforderungen an ein Workflow-Management-Systeme (WFMS) zu analysieren, um daraus ein generisches Lastenheft zu erstellen. Das WFMS soll den Publikationsprozess in OA-Verlagen erleichtern, beschleunigen sowie die Verbreitung von Open Access und das nachhaltige, digitale wissenschaftliche Publizieren fördern.
Das Projekt baut auf den Ergebnissen der Projekte „Open-Access-Hochschulverlag (OA-HVerlag)“ und „Open-Access-Strukturierte-Kommunikation (OA-STRUKTKOMM)“ auf. Der diesem Bericht zugrunde liegende Auftaktworkshop fand 2024 in Leipzig mit Vertreter:innen von zehn Institutionen statt. Der Workshop diente dazu, Herausforderungen und Anforderungen an ein WFMS zu ermitteln sowie bestehende Lösungsansätze und Tools zu diskutieren.
Im Workshop wurden folgende Fragen behandelt:
a. Wie kann die Organisation und Überwachung von Publikationsprozessen in wissenschaftlichen Verlagen durch ein WFMS effizient gestaltet werden?
b. Welche Anforderungen muss ein WFMS erfüllen, um Publikationsprozesse optimal zu unterstützen?
c. Welche Schnittstellen müssen berücksichtigt werden, um die Interoperabilität der Systeme zu garantieren?
d. Welche bestehenden Lösungsansätze und Tools sind bereits im Einsatz und welche Vor- und Nachteile haben diese?
Der Workshop gliederte sich in zwei Teile : Teil 1 behandelte Herausforderungen und Anforderungen (Fragen a. bis c.), Teil 2 bestehende Lösungen und Tools (Frage d.). Die Ergebnisse des Workshops fließen in die Bedarfsanalyse des Forschungsprojekts ein.
Die im Bericht dokumentierten Ergebnisse zeigen die Vielzahl der Herausforderungen der bestehenden Ansätze bezüglich des OA-Publikationsmanagements . Die Herausforderungen zeigen sich insbesondere bei der Systemheterogenität, den individuellen Anpassungsbedarfen und der Notwendigkeit der systematischen Dokumentation. Die eingesetzten Unterstützungssysteme und Tools wie Dateiablagen, Projektmanagement- und Kommunikationstools können insgesamt den Anforderungen nicht genügen, für Teillösungen sind sie jedoch nutzbar. Deshalb muss die Integration bestehender Systeme in ein zu entwickelndes OA-WFMS in Betracht gezogen und die Interoperabilität der miteinander interagierenden Systeme gewährleistet werden. Die Beteiligten des Workshops waren sich einig, dass das OA-WFMS flexibel und modular aufgebaut werden soll. Einer konsortialen Softwareentwicklung und einem gemeinsamen Betrieb im Verbund wurde der Vorrang gegeben.
Der Workshop lieferte wertvolle Einblicke in die Arbeit der Hochschulverlage und bildet somit eine solide Grundlage für die in Folge zu erarbeitende weitere Bedarfsanalyse und die Erstellung des generischen Lastenheftes.
We present a new set of global and local sea‐level projections at example tide gauge locations under the RCP2.6, RCP4.5, and RCP8.5 emissions scenarios. Compared to the CMIP5‐based sea‐level projections presented in IPCC AR5, we introduce a number of methodological innovations, including (i) more comprehensive treatment of uncertainties, (ii) direct traceability between global and local projections, and (iii) exploratory extended projections to 2300 based on emulation of individual CMIP5 models. Combining the projections with observed tide gauge records, we explore the contribution to total variance that arises from sea‐level variability, different emissions scenarios, and model uncertainty. For the period out to 2300 we further breakdown the model uncertainty by sea‐level component and consider the dependence on geographic location, time horizon, and emissions scenario. Our analysis highlights the importance of local variability for sea‐level change in the coming decades and the potential value of annual‐to‐decadal predictions of local sea‐level change. Projections to 2300 show a substantial degree of committed sea‐level rise under all emissions scenarios considered and highlight the reduced future risk associated with RCP2.6 and RCP4.5 compared to RCP8.5. Tide gauge locations can show large ( > 50%) departures from the global average, in some cases even reversing the sign of the change. While uncertainty in projections of the future Antarctic ice dynamic response tends to dominate post‐2100, we see substantial differences in the breakdown of model variance as a function of location, time scale, and emissions scenario.
We present a new set of global and local sea‐level projections at example tide gauge locations under the RCP2.6, RCP4.5, and RCP8.5 emissions scenarios. Compared to the CMIP5‐based sea‐level projections presented in IPCC AR5, we introduce a number of methodological innovations, including (i) more comprehensive treatment of uncertainties, (ii) direct traceability between global and local projections, and (iii) exploratory extended projections to 2300 based on emulation of individual CMIP5 models. Combining the projections with observed tide gauge records, we explore the contribution to total variance that arises from sea‐level variability, different emissions scenarios, and model uncertainty. For the period out to 2300 we further breakdown the model uncertainty by sea‐level component and consider the dependence on geographic location, time horizon, and emissions scenario. Our analysis highlights the importance of local variability for sea‐level change in the coming decades and the potential value of annual‐to‐decadal predictions of local sea‐level change. Projections to 2300 show a substantial degree of committed sea‐level rise under all emissions scenarios considered and highlight the reduced future risk associated with RCP2.6 and RCP4.5 compared to RCP8.5. Tide gauge locations can show large ( > 50%) departures from the global average, in some cases even reversing the sign of the change. While uncertainty in projections of the future Antarctic ice dynamic response tends to dominate post‐2100, we see substantial differences in the breakdown of model variance as a function of location, time scale, and emissions scenario.
Transform2Open
(2022)
Mit der Covid-19-Pandemie hat die Digitalisierung an Hochschulen weitere Bedeutung erlangt. Insbesondere dem Einsatz digitaler Medien in Lehre und Studium galt großes Augenmerk. Das legt die Hoffnung nahe, dass die Digitalisierung durch das Virus einen Schub erfahren und die Hochschulen dauerhaft verändert hat. Der Beitrag geht am Beispiel der Universität Potsdam der Frage nach, welcher Natur diese Veränderungen waren – ausgehend sowohl von den unternommenen Maßnahmen als auch von den erzielten Resultaten – und inwiefern sie von Dauer sind. Dabei werden förderliche und hemmende Faktoren identifiziert, die in Empfehlungen für weitere Digitalisierungsvorhaben übersetzt werden.
Digitalisierung ist und bleibt in aller Munde. Spätestens mit Beginn der Corona-Pandemie und dem Wechsel vieler Mitarbeiter:innen ins Homeoffice sind die Notwendigkeiten und Anforderungen noch einmal deutlich gestiegen. Hinzu kommen diverse rechtliche Rahmenbedingungen (E-Government-Gesetze, OZG, SDG), die als Treiber der Digitalisierung fungieren. Wie aber kann die Verwaltungsdigitalisierung an einer Hochschule effizient und nachhaltig organisiert werden?
Das Dokument "Forschungsdatenmanagement bei personenbezogenen Daten - eine Handreichung" versammelt zentrale Inhalte, Verweise und Vorgehensweisen für Forscher*innen, die in einer Studie personenbezogene Daten erheben und diese verarbeiten, archivieren oder veröffentlichen wollen. Die Handreichung verweist an den entsprechenden Abschnitten auf weiterführende Materialien wie insbesondere die Handreichung „Datenschutz“ des Rats für die Sozial-, Verhaltens-, Bildungs- und Wirtschaftswissenschaften (RatSWD).
Die große Bedeutung der Informationstechnologie für die Wissenschaftsdisziplinen und die zentralen Infrastruktureinrichtungen der Hochschulen steht heutzutage außer Frage. Der Beitrag liefert einen historischen Überblick über die Einführung und Weiterentwicklung der IT in deutschen Hochschulen von den 1950er-Jahren bis heute, wobei der Fokus auf den Bibliotheken und Rechenzentren liegt. Es zeigt sich, dass die verschiedenen Phasen der Technologieentwicklung zu heterogenen IT-Organisationsstrukturen in den Hochschulen geführt haben. DFG und HRK empfehlen daher seit 20 Jahren die Klärung der Verantwortlichkeiten im Rahmen einer IT-Governance sowie die Implementierung eines CIO-Modells. Wie verschiedene Studien zeigen, ist die Umsetzung in der deutschen Hochschullandschaft bislang jedoch nur in Teilen gelungen. Die Herausforderung an vielen Hochschulen besteht nach wie vor darin, die IT-Organisation aus ihrer reaktiven Rolle zu befreien und zu einem aktiven Treiber der digitalen Transformation umzubauen.
Dieser Artikel thematisiert die technische Umsetzung eines Webportals und einer SQL-Datenbank (Output.UP), um die manuelle Erfassung und Auswertung von wissenschaftlichen Publikationen für die Universitätsbibliothek Potsdam weitestgehend zu automatisieren. Ein besonderes Augenmerk wird auf die Importe mittels API von ORCID, Crossref und Unpaywall gelegt. Nach Abschluss der Testphase wird Output.UP in einem Git-Repository für die Nachnutzung zur Verfügung gestellt.
Forschungsdatenmanagement
(2021)
Forschungsdatenmanagement ist ein informationswissenschaftliches Thema, dessen Bedeutung kontinuierlich, spätestens aber seit dem Start der Nationalen Forschungsdateninfrastruktur (NFDI) immer präsenter wird. Zur Abbildung und Verortung von Arbeitsschwerpunkten für Informationswissenschaftler*innen wurde in der vorliegenden Arbeit ein aktuelles Korpus von 162 Stellenanzeigen, in denen Forschungsdatenmanagement erwähnt wird, ausgewertet. Das Korpus umfasst Stellenanzeigen, die über das Portal Open-BiblioJobs und die DFN-Mailingliste Forschungsdaten beworben wurden und deckt einen Zeitraum vom 01.03.2020 bis zum 22.11.2020 ab. Zur Auswertung des Korpus wurde eine Analysematrix erstellt, in welcher die Inhalte jeder Stellenanzeige nach formalen, administrativen und inhaltlichen Kriterien verzeichnet wurden. Die aus den Stellenanzeigen stammenden Anforderungen wurden in einem Forschungsdatenlebenszyklus mit insgesamt acht Teilaspekten verortet, hiervon sechs Stationen des Forschungsdatenlebenszyklus: „Forschungsvorhaben planen“, „Daten erheben“, „Daten aufbereiten und analysieren“, „Daten teilen und publizieren“, „Daten archivieren“, „Daten nachnutzen“, zusätzlich wurden die zwei Teilaspekte „allgemeine Kern- und Schlüsselkompetenzen“ und „übergreifende Querschnittsthemen“ hinzugefügt.
Dieser Praxisrepräsentation wurde eine Literaturanalyse gegenübergestellt, welche sich mit Anforderungen und Kompetenzen im Forschungsdatenmanagement, besonders aus informationswissenschaftlicher, infrastruktureller Sicht beschäftigt. Hierbei wurden exemplarisch Frameworks (international, national, institutionell), Praxisberichte (universitärer und außeruniversitärer Einrichtungen) und der Individualbericht eines Forschungsdatenmanagers ausgewertet. Zur Gewährleistung einer späteren Vergleichbarkeit wurden auch hier die genannten Kompetenzen und Aufgaben in einem gleichen Forschungsdatenlebenszyklus verortet und analysiert. Die abschließende Zusammenführung und Auswertung der um Aufgaben und Kompetenzen angereicherten Forschungsdatenlebenszyklen ermöglichte einen direkten Vergleich von Theorie und Praxis. Hierbei konnte eine große Kongruenz der Schwerpunktverteilung innerhalb des Forschungsdatenlebenszyklus aufgezeigt werden. Diese Aufgabenkonzentration, besonders in den Teilaspekten „allgemeine Kern- und Schlüsselkompetenzen“ und „übergreifende Querschnittsthemen“ bilden die Verteilung von Arbeitsschwerpunkten im Forschungsdatenmanagement für Informationswissenschaftler* innen deutlich ab.
Im Projekt „Forschungsdatenmanagement in Brandenburg (FDM-BB)“ wurden grundlegende Erkenntnisse bezüglich der Anforderungen und des Status Quo im Bereich Forschungsdatenmanagement (FDM) an den acht brandenburgischen Hochschulen generiert mit dem Ziel, daraus konkrete Handlungs- und Implementierungsempfehlungen für Brandenburg abzuleiten.
Mit Hilfe von spezifischen Umfragen (FactSheets, FDM-Palette) an den Hochschulen und Interviews mit den anderen geförderten FDM-Bundeslandinitiativen konnte eine Priorisierung der nächsten Schritte auf dem Weg hin zu einem institutionellen und nachhaltigen Forschungsdatenmanagement identifiziert werden, die jeweils in den Verantwortungsbereichen der folgenden drei Akteursgruppen liegen: Ministerium für Wirtschaft, Forschung und Kultur in Brandenburg (MWFK), die einzelne Hochschule und für gemeinsame Maßnahmen die kooperative Umsetzung durch (fast) alle Hochschulen.
Zusätzlich wurden Implementierungsempfehlungen erarbeitet, wie der lokale Kompetenzaufbau an den einzelnen Hochschulen in Brandenburg, die kooperative Bereitstellung landesweit relevanter IT-Dienste und Dienstleistungen sowie die Koordinierung FDM-BB.
Ziel ist auch, für Brandenburg gemeinsam eine Forschungsdatenstrategie zu formulieren, die alle brandenburgischen Einrichtungen einbezieht und mit Hilfe von kooperativ verteilten Verantwortlichkeiten dem (noch) sehr dynamischen Thema Forschungsdatenmanagement gerecht werden kann.
Digitale Forschungsdaten gewinnen zunehmend an Bedeutung und stellen neue Herausforderungen an wissenschaftliche Einrichtungen und ihre Forschenden. Der Begriff Forschungsdatenmanagement umfasst alle Aktivitäten, die mit der Aufbereitung, Speicherung, Archivierung und Veröffentlichung von Forschungsdaten verbunden sind. Da der Umgang mit Forschungsdaten generische, fachliche, rechtliche und technische Aspekte betrifft, erfordert es eine Begleitung der Forschenden durch ein umfangreiches Spektrum an Services, von Information und Beratung bis hin zu fachspezifischen Standards und IT-Infrastrukturen.
Im vorliegenden Bericht werden zunächst die Ausgangslage und die Begrifflichkeiten rund um Forschungsdatenmanagement geklärt und anschließend die wichtigsten nationalen und internationalen Strategien und Entwicklungen vorgestellt. Dabei bilden Richtlinien und Empfehlungen für Forschungsdaten(management) den Handlungsrahmen für alle Beteiligte hin zu einem nachhaltigen Forschungsdatenmanagement. Bundeslandinitiativen schaffen die Grundlage und unterstützen den Kulturwandel zu offenen Daten.
Eine Forschungsdaten-Strategie für Brandenburg muss die Bedeutung von digitalen Forschungsdaten als wissenschaftliches Gut in den Vordergrund stellen, indem dafür das Bewusstsein geschaffen wird und konkrete Vorgaben und Leitlinien auf Landes- und Einrichtungsebene vereinbart werden. Gute wissenschaftliche Praxis wird durch eine geeignete Infrastruktur unterstützt, welche die heterogenen Bedarfe und Voraussetzungen aller Beteiligten berücksichtigt. Ziele sollten die Institutionalisierung von Forschungsdatenmanagement an den Hochschulen und Kooperationen zwischen den Einrichtungen Brandenburgs sein.
Nicht im Trüben fischen
(2021)
Nicht im Trüben fischen
(2021)
Die Setzung strategischer Ziele sowie die Zuordnung und Umsetzung dazugehörender Maßnahmen sind ein wesentliches Element, um die Innovationsfähigkeit von Organisationen zu erhalten. In den vergangenen Jahren ist auch an Hochschulen die Strategiebildung deutlich vorangetrieben worden. Dies betrifft verschiedene Handlungsfelder, und es werden verschiedene Ansätze verfolgt. Der vorliegende Beitrag greift am Beispiel der Universität Potsdam drei in den vergangenen Jahren adressierte Strategiebereiche heraus: IT, E-Learning und Forschungsdaten. Die damit verbundenen Prozesse waren in unterschiedlichem Maß von Partizipation geprägt. Die gesammelten Erfahrungen werden reflektiert, und es werden Empfehlungen für Strategieentwicklungsprozesse abgeleitet.
Dieser Bericht nimmt die Institutionalisierung von Forschungsdatenmanagement (FDM) an den staatlichen Hochschulen Brandenburgs in den Blick. Er soll zur Beantwortung der folgenden Fragen beitragen: Warum wird FDM dort institutionalisiert? Wie wird FDM dort institutionalisiert? Welche Herausforderungen für eine weitere Institutionalisierung bestehen und wie kann ihnen begegnet werden? Zur Erhebung des Status Quo und zur Identifikation von Anforderungen und Weiterentwicklungspotenzialen wurde deshalb eine Organisationsuntersuchung durchgeführt. Untersuchung ist neben der Einhaltung wissenschaftlicher und professioneller Standards auch dem Anwendungsbezug der Ergebnisse, deren Anwendbarkeit im Kontext und der Partizipation der Beteiligten verpflichtet. Da es sich um ein für die betrachteten Einrichtungen noch vergleichsweise neues Themengebiet handelt, wurde ein exploratives Forschungsdesign unter Einsatz qualitativer Methoden gewählt. Grundlage der Ergebnisse sind ein Auftaktworkshop unter Beteiligung der Hochschulen, eine Dokumentenanalyse und 16 leitfadengestützte Expert*innen-Interviews auf Arbeits- und Leitungsebene der brandenburgischen Hochschulen. Die Ergebnisse werden anhand von vier Handlungsbereichen strukturiert vorgestellt: Relevanz von FDM und Institutionalisierung an den Hochschulen; Technologie und Infrastruktur; Personal und Qualifizierung; Organisation, Kooperation und Finanzierung. Dabei stellt der Bericht sowohl den Status Quo als auch die Ziele der Hochschulen sowie die Wünsche an eine Landesinitiative vor.