Refine
Year of publication
Document Type
- Article (25)
- Monograph/Edited Volume (12)
- Postprint (11)
- Other (4)
- Report (4)
- Working Paper (4)
- Bachelor Thesis (1)
- Part of a Book (1)
- Preprint (1)
- Review (1)
Keywords
- Forschungsdaten (9)
- Forschungsdatenmanagement (7)
- Open Access (7)
- Zweitveröffentlichung (5)
- Affiliation (4)
- Bibliometrie (4)
- Output-Analyse (4)
- Agrarwissenschaft (3)
- Datenschutz (3)
- Geowissenschaften (3)
Institute
- Universitätsbibliothek (64) (remove)
Zwei Anlässe bilden den Ausgangspunkt für diesen Sammelband.
Anlässlich des 100. Todestags von Hermann Cohen fand im Oktober 2018 in Dortmund ein Symposium statt, das hier dokumentiert wird. Im Mittelpunkt standen hierbei die Fragen nach Cohens Bedeutung für die Philosophiegeschichte bis in die Gegenwart sowie nach der bleibenden Relevanz seines Religionsbegriffs.
Zudem wird Dieter Adelmanns grundlegende Studie zum Herkommen des Begriffs „erzeugen“ in Cohens Logik der reinen Erkenntnis aus der Synthese von früher Wissenschaft des Judentums und der Humboldtschen Sprachphilosophie im Werk H. Steinthals erstmals einer breiten Öffentlichkeit vorgelegt.
Adelmann zeigt insbesondere die Bedeutung von M. Joel, Michael Sachs und Steinthal für das religiös geprägte Denken des Marburger Neukantianers und Erkenntnistheoretikers Cohen auf. Brigitte Falkenburg zeigt, dass jenseits von Cohens Erkenntnistheorie seine eigentliche Bedeutung im philosophischen Konstruktivismus zu finden ist. Knut Martin Stünkel wendet sich Cohens unterschätzter Religionsschrift Der Begriff der Religion im System der Philosophie von 1915 zu und entwickelt eine Religionstopologie, mit deren Hilfe eine metasprachliche Ebene der Religionsforschung ermöglicht wird.
Intention der Arbeit war es, die bibliothekarische Fachwelt zunächst auf den Begriff und die Bedeutung des Bürgerhaushaltes aufmerksam zu machen und eine Auseinandersetzung mit der Thematik zu fördern. Die Öffentliche Bibliothek kann ein Diskussions- bzw. Beteiligungsgegenstand zwischen Bürgerschaft und Politik sowie Verwaltung sein, wenn es im partizipatorischen Verfahren des Bürgerhaushaltes darum geht, Modernisierungsergebnisse in einer Stadt durch gezielte Finanzierung zu erlangen. Eruiert wurde, ob der Bürgerhaushalt das Potential hat, zur Modernisierung von Dienstleistungen Öffentlicher Bibliotheken beizutragen. Mittels Interviews wurden Informationen gesammelt, aufbereitet und ausgewertet.
Verfügbare Allianz- und Nationallizenzen können eine Open-Access-Komponente beinhalten. Diese räumen den autorisierten Autoren oder Einrichtungen bestimmte Open-Access-Rechte zur Zweitveröffentlichung ein. Vorhandene Lizenzrechte zur Realisierung des Grünen Weges können somit zukünftig verstärkt genutzt werden. Dabei kann die Bibliothek eine aktive Rolle einnehmen. Präsentiert wird ein Workflow, der sich an der Checkliste für Repository-Manager orientiert. Sieben herausgearbeitete Schritte werden genannt und näher erläutert. An Beispielen wurde der Workflow getestet. Die Ergebnisse werden ebenfalls vorgestellt. Die Erweiterung des Workflows zur Identifizierung von Publikationen für die Zweitveröffentlichung lässt sich ggf. auch auf Creative-Commons-Lizenzen anwenden bzw. auf Zeitschriften, die keine Open-Access-Komponente haben.
Verfügbare Allianz- und Nationallizenzen können eine Open-Access-Komponente beinhalten. Diese räumen den autorisierten Autoren oder Einrichtungen bestimmte Open-Access-Rechte zur Zweitveröffentlichung ein. Vorhandene Lizenzrechte zur Realisierung des Grünen Weges können somit zukünftig verstärkt genutzt werden. Dabei kann die Bibliothek eine aktive Rolle einnehmen. Präsentiert wird ein Workflow, der sich an der Checkliste für Repository-Manager orientiert. Sieben herausgearbeitete Schritte werden genannt und näher erläutert. An Beispielen wurde der Workflow getestet. Die Ergebnisse werden ebenfalls vorgestellt. Die Erweiterung des Workflows zur Identifizierung von Publikationen für die Zweitveröffentlichung lässt sich ggf. auch auf Creative-Commons-Lizenzen anwenden bzw. auf Zeitschriften, die keine Open-Access-Komponente haben.
Die Arbeitsbibliothek von Dieter Adelmann befindet sich in der Universitätsbibliothek Potsdam und ist in diesem Band verzeichnet; der Nachlass und das Findbuch befinden sich im Universitätsarchiv Potsdam. Dieter Adelmann wurde am 1. Februar 1936 in Eisenach, Thüringen, geboren. Er studierte Philosophie, Germanistik und Soziologie an der Freien Universität Berlin und an der Universität Heidelberg und wurde dort 1968 mit der Arbeit Einheit des Bewusstseins als Grundlage der Philosophie Hermann Cohens bei Dieter Henrich und Hans-Georg Gadamer promoviert. Von 1968 bis 1970 war Adelmann Leiter des „Collegium Academicum“ der Universität Heidelberg; von 1970 bis 1974 Landesgeschäftsführer der SPD in Baden-Württemberg (Zuständigkeit: Politische Planung) und zeitweise auch Wahlkreisassistent des SPD-Bundestagsabgeordneten Horst Ehmke. Anschließend arbeitete Adelmann publizistisch mit dem Grafiker und gegenwärtigen Präsidenten der Berliner Akademie der Künste, Klaus Staeck zusammen, bevor er von Juli 1977 bis einschließlich September 1979 beim Vorwärts im Ressort Parteien und Programme beschäftigt war. Nach seinem Abschied vom Vorwärts war Adelmann freiberuflich in Bonn tätig, u.a. als Journalist. 1995 war er wissenschaftlicher Mitarbeiter im Rahmen der Herausgabe der Werke Hermann Cohens am „Moses-Mendelssohn-Zentrum“ und am Lehrstuhl für Innenraumgestaltung an der Technischen Universität Dresden. Nach dem Ende der Tätigkeit in Potsdam war Adelmann bis zu seinem Tod am 30. September 2008 freiberuflicher Philosoph und Cohen-Forscher.
Die gedruckte Fassung der Universitätsbibliographie der Universität Potsdam enthält alle der Universitätsbibliothek gemeldeten Veröffentlichungen von Einzelmitgliedern der Universität Potsdam sowie der Universität als Korporation aus dem Zeitraum von 1994 bis 1996.
Der aktuelle Stand der Universitätsbibliographie (1992 bis heute) ist im Internet recherchierbar unter:
https://publishup.uni-potsdam.de/opus4-ubp/home/index/help/content/bibliography_start
Digitale Forschungsdaten gewinnen zunehmend an Bedeutung und stellen neue Herausforderungen an wissenschaftliche Einrichtungen und ihre Forschenden. Der Begriff Forschungsdatenmanagement umfasst alle Aktivitäten, die mit der Aufbereitung, Speicherung, Archivierung und Veröffentlichung von Forschungsdaten verbunden sind. Da der Umgang mit Forschungsdaten generische, fachliche, rechtliche und technische Aspekte betrifft, erfordert es eine Begleitung der Forschenden durch ein umfangreiches Spektrum an Services, von Information und Beratung bis hin zu fachspezifischen Standards und IT-Infrastrukturen.
Im vorliegenden Bericht werden zunächst die Ausgangslage und die Begrifflichkeiten rund um Forschungsdatenmanagement geklärt und anschließend die wichtigsten nationalen und internationalen Strategien und Entwicklungen vorgestellt. Dabei bilden Richtlinien und Empfehlungen für Forschungsdaten(management) den Handlungsrahmen für alle Beteiligte hin zu einem nachhaltigen Forschungsdatenmanagement. Bundeslandinitiativen schaffen die Grundlage und unterstützen den Kulturwandel zu offenen Daten.
Eine Forschungsdaten-Strategie für Brandenburg muss die Bedeutung von digitalen Forschungsdaten als wissenschaftliches Gut in den Vordergrund stellen, indem dafür das Bewusstsein geschaffen wird und konkrete Vorgaben und Leitlinien auf Landes- und Einrichtungsebene vereinbart werden. Gute wissenschaftliche Praxis wird durch eine geeignete Infrastruktur unterstützt, welche die heterogenen Bedarfe und Voraussetzungen aller Beteiligten berücksichtigt. Ziele sollten die Institutionalisierung von Forschungsdatenmanagement an den Hochschulen und Kooperationen zwischen den Einrichtungen Brandenburgs sein.
Transform2Open
(2022)
Die Setzung strategischer Ziele sowie die Zuordnung und Umsetzung dazugehörender Maßnahmen sind ein wesentliches Element, um die Innovationsfähigkeit von Organisationen zu erhalten. In den vergangenen Jahren ist auch an Hochschulen die Strategiebildung deutlich vorangetrieben worden. Dies betrifft verschiedene Handlungsfelder, und es werden verschiedene Ansätze verfolgt. Der vorliegende Beitrag greift am Beispiel der Universität Potsdam drei in den vergangenen Jahren adressierte Strategiebereiche heraus: IT, E-Learning und Forschungsdaten. Die damit verbundenen Prozesse waren in unterschiedlichem Maß von Partizipation geprägt. Die gesammelten Erfahrungen werden reflektiert, und es werden Empfehlungen für Strategieentwicklungsprozesse abgeleitet.
Mit RISE-DE liegt als FDMentor-Projektergebnis ein Referenzmodell für Strategieprozesse im institutionellen Forschungsdatenmanagement (FDM) vor. RISE-DE bietet einen Bewertungsrahmen zur Selbstevaluation und Zielbestimmung und eignet sich als Werkzeug zur Gestaltung einer strukturierten, Stakeholder-orientierten Strategieentwicklung für das FDM an Hochschulen und Forschungseinrichtungen.
RISE-DE basiert auf dem lose an Reifegradenmodellen orientierten Research Infrastructure Self-Evaluation Framework (RISE v1.1) des Digital Curation Centre (DCC), wurde aber für den Einsatz in partizipativen Prozessen deutlich überarbeitet sowie inhaltlich an den deutschen Wissenschaftskontext und Entwicklungen in der guten Praxis im FDM angepasst. Eine mit Hilfe von RISE-DE erarbeitete Strategie erfüllt zugleich die von der Hochschulrektorenkonferenz (HRK) und der League of European Research Universities (LERU) formulierten Empfehlungen.
Die hier vorliegende RISE-DE Version 1.0 nimmt Erfahrungen aus dem Piloteinsatz an der Universität Potsdam sowie Feedback aus der Community auf. Es beinhaltet gegenüber der Vorversion zum einen Veränderungen an den Themen des Referenzmodells, zum anderen wurden Empfehlungen für FDM-Beginner deutlich erweitert und Erläuterungen für die Durchführung partizipativer Strategieprozesse hinzugefügt. In Zusammenarbeit mit der Hochschule für Angewandte Wissenschaften Hamburg entstand außerdem ein digitales Evaluations-Tool.
Mit RISE-DE liegt als FDMentor-Projektergebnis ein Referenzmodell für Strategieprozesse im institutionellen Forschungsdatenmanagement vor. RISE-DE bietet einen Bewertungsrahmen zur Selbstevaluation und Zielbestimmung und eignet sich als Werkzeug zur Gestaltung einer strukturierten, Stakeholder-orientierten Strategieentwicklung für das Forschungsdatenmanagement an Hochschulen und Forschungseinrichtungen.
RISE-DE basiert auf dem lose an Reifegradenmodellen orientierten RISE-Framework des DCC (RISE v1.1), wurde aber für den Einsatz in partizipativen Prozessen deutlich überarbeitet sowie inhaltlich an den deutschen Wissenschaftskontext und Entwicklungen in der guten Praxis im FDM angepasst. Ein mit Hilfe von RISE-DE erarbeitete Strategie erfüllt zugleich die von der Hochschulrektorenkonferenz und der League of European Research Universities formulierten Anforderungen.
Am Beispiel der Erd- und Umweltwissenschaften (einschließlich der landschafts- und standortbezogenen Teilgebiete der Agrarwissenschaften) zeigt dieser Beitrag, dass auch in scheinbar „unverdächtigen“ Disziplinen personenbezogene Forschungsdaten vorkommen. Eine Auswertung der Literatur zeigt, dass allgemeine Handreichungen zum Datenschutz in der Forschung kaum Unterstützung bei der Arbeit mit den für diese Disziplinen besonders relevanten Fällen bieten. Für die in den Erd- und Umweltwissenschaften besonders relevanten raumbezogenen Daten kommt hinzu, dass selbst unter Fachjuristinnen Uneinigkeit über die datenschutzrechtliche Bewertung herrscht. Die Ergebnisse einer empirischen Vorstudie zeigen eine ganze Reihe verschiedener Arten personenbezogener Forschungsdaten auf, die in der Forschungspraxis der Erd- und Umweltwissenschaften eine Rolle spielen. Sie legen außerdem nahe, dass der Umgang mit personenbezogenen Daten in der Forschungspraxis der Erd- und Umweltwissenschaften auf Grund der mangelnden Vertrautheit mit dem Datenschutz nicht immer den rechtlichen Anforderungen entspricht. Auch Unterstützung durch Fachgesellschaften und Infrastruktureinrichtungen – etwa in Form disziplinspezifischer Handreichungen, qualifizierter Beratung oder institutionalisierten Möglichkeiten, Daten sicher zu archivieren und gegebenenfalls zugangsbeschränkt zu publizieren – bestehen kaum. Aus dieser Situation ergeben sich Herausforderungen an die Weiterentwicklung der disziplinären Datenkultur und Dateninfrastruktur, beispielsweise im Rahmen des Prozesses zum Aufbau einer Nationalen Forschungsdateninfrastruktur (NFDI). Zu den Möglichkeiten für Infrastruktureinrichtungen, diese Weiterentwicklung zu unterstützen, zeigt dieser Beitrag Handlungsoptionen auf.
Am Beispiel der Erd- und Umweltwissenschaften (einschließlich der landschafts- und standortbezogenen Teilgebiete der Agrarwissenschaften) zeigt dieser Beitrag, dass auch in scheinbar „unverdächtigen“ Disziplinen personenbezogene Forschungsdaten vorkommen. Eine Auswertung der Literatur zeigt, dass allgemeine Handreichungen zum Datenschutz in der Forschung kaum Unterstützung bei der Arbeit mit den für diese Disziplinen besonders relevanten Fällen bieten. Für die in den Erd- und Umweltwissenschaften besonders relevanten raumbezogenen Daten kommt hinzu, dass selbst unter Fachjuristinnen Uneinigkeit über die datenschutzrechtliche Bewertung herrscht. Die Ergebnisse einer empirischen Vorstudie zeigen eine ganze Reihe verschiedener Arten personenbezogener Forschungsdaten auf, die in der Forschungspraxis der Erd- und Umweltwissenschaften eine Rolle spielen. Sie legen außerdem nahe, dass der Umgang mit personenbezogenen Daten in der Forschungspraxis der Erd- und Umweltwissenschaften auf Grund der mangelnden Vertrautheit mit dem Datenschutz nicht immer den rechtlichen Anforderungen entspricht. Auch Unterstützung durch Fachgesellschaften und Infrastruktureinrichtungen – etwa in Form disziplinspezifischer Handreichungen, qualifizierter Beratung oder institutionalisierten Möglichkeiten, Daten sicher zu archivieren und ggf. zugangsbeschränkt zu publizieren – bestehen kaum. Aus dieser Situation ergeben sich Herausforderungen an die Weiterentwicklung der disziplinären Datenkultur und Dateninfrastruktur, beispielsweise im Rahmen des Prozesses zum Aufbau einer Nationalen Forschungsdateninfrastruktur (NFDI). Zu den Möglichkeiten für Infrastruktureinrichtungen, diese Weiterentwicklung zu unterstützen, zeigt dieser Beitrag Handlungsoptionen auf.
Am Beispiel der Erd- und Umweltwissenschaften (einschließlich der landschafts- und standortbezogenen Teilgebiete der Agrarwissenschaften) zeigt dieser Beitrag, dass auch in scheinbar „unverdächtigen“ Disziplinen personenbezogene Forschungsdaten vorkommen. Eine Auswertung der Literatur zeigt, dass allgemeine Handreichungen zum Datenschutz in der Forschung kaum Unterstützung bei der Arbeit mit den für diese Disziplinen besonders relevanten Fällen bieten. Für die in den Erd- und Umweltwissenschaften besonders relevanten raumbezogenen Daten kommt hinzu, dass selbst unter Fachjuristinnen Uneinigkeit über die datenschutzrechtliche Bewertung herrscht. Die Ergebnisse einer empirischen Vorstudie zeigen eine ganze Reihe verschiedener Arten personenbezogener Forschungsdaten auf, die in der Forschungspraxis der Erd- und Umweltwissenschaften eine Rolle spielen. Sie legen außerdem nahe, dass der Umgang mit personenbezogenen Daten in der Forschungspraxis der Erd- und Umweltwissenschaften auf Grund der mangelnden Vertrautheit mit dem Datenschutz nicht immer den rechtlichen Anforderungen entspricht. Auch Unterstützung durch Fachgesellschaften und Infrastruktureinrichtungen – etwa in Form disziplinspezifischer Handreichungen, qualifizierter Beratung oder institutionalisierten Möglichkeiten, Daten sicher zu archivieren und gegebenenfalls zugangsbeschränkt zu publizieren – bestehen kaum. Aus dieser Situation ergeben sich Herausforderungen an die Weiterentwicklung der disziplinären Datenkultur und Dateninfrastruktur, beispielsweise im Rahmen des Prozesses zum Aufbau einer Nationalen Forschungsdateninfrastruktur (NFDI). Zu den Möglichkeiten für Infrastruktureinrichtungen, diese Weiterentwicklung zu unterstützen, zeigt dieser Beitrag Handlungsoptionen auf.
Veröffentlicht wird die Textfassung eines Vortrages, welcher am 16. April 2015 auf dem 9. Konsortialtag des Friedrich-Althoff-Konsortium e.V. in Potsdam gehalten wurde. Hintergrund des Vortrages war die aktive Auseinandersetzung der Institution mit vorhandenen Lizenzrechten. Auf dieser Basis wurde ein Workflow zur Identifizierung von Publikationen für die Zweitveröffentlichung erarbeitet. Der vorgestellte Workflow umfasst sieben Schritte, von denen fünf näher erläutert und mit Beispielen einzelner Lizenzen/Verlage unterlegt wurden.
NS-Raubgut
(2018)
NS-Raubgut in der Universitätsbibliothek Potsdam? Das Gründungsdatum 1991 der dazugehörigen Universität ließe eigentlich nur den Schluss zu, diese Frage mit „Nein“ zu beantworten. Dennoch wurden hier Bücher, die im Verdacht standen zwischen 1933 und 1945 verfolgungsbedingt entzogen worden zu sein, gefunden. Ein vom Deutschen Zentrum Kulturgutverluste gefördertes Projekt untersuchte daraufhin mehr als 6.000 Bücher des judaistischen Buchbestandes. Die vorliegende Publikation blickt auf das Entstehen dieser Sammlung zurück, erklärt die einzelnen Schritte der Provenienzrecherche und zeigt deren Ergebnisse anhand ausgewählter Beispiele, die gleichsam die breite Palette der zu bewältigenden Herausforderungen veranschaulicht.
Nicht im Trüben fischen
(2021)
Nicht im Trüben fischen
(2021)
Veröffentlicht wird die Textfassung eines Vortrages, welcher am 18. April 2018 auf dem 10. Konsortialtag des Friedrich-Althoff-Konsortium e.V. in Berlin gehalten wurde. Zentrale Aussagen zum Publikationsaufkommen und zum Publikationsfonds der Universität Potsdam sind Bestandteile des Vortrages. Weiterhin wird die Verwaltung der Article Processing Charges (APC), welche im Dezernat Medienbearbeitung der Universitätsbibliothek verankert ist, thematisiert.
Die Universität Potsdam hat 2018 zum zweiten Mal erfolgreich am Times Higher Education-Ranking (THE-Ranking) teilgenommen. Hierfür wurde erneut das Publikationsaufkommen inklusive der Verbreitung der IDs von Autorinnen und Autoren, wie bspw. ORCiD, Researcher-ID oder Google Scholar-ID, ermittelt. Die aus den Erkenntnissen der ersten bibliometrischen Output-Analyse abgeleiteten Maßnahmen wurden nun hinsichtlich ihrer Wirksamkeit beurteilt. Der vorliegende Artikel vergleicht die Ergebnisse beider Analysen und thematisiert die Entwicklungen und Implikationen seit dem Ergreifen der ersten Maßnahmen.
Die Universität Potsdam hat 2018 zum zweiten Mal erfolgreich am Times Higher Education-Ranking (THE-Ranking) teilgenommen. Hierfür wurde erneut das Publikationsaufkommen inklusive der Verbreitung der IDs von Autorinnen und Autoren, wie bspw. ORCiD, Researcher-ID oder Google Scholar-ID, ermittelt. Die aus den Erkenntnissen der ersten bibliometrischen Output-Analyse abgeleiteten Maßnahmen wurden nun hinsichtlich ihrer Wirksamkeit beurteilt. Der vorliegende Artikel vergleicht die Ergebnisse beider Analysen und thematisiert die Entwicklungen und Implikationen seit dem Ergreifen der ersten Maßnahmen.
Hochschulen und deren Zentraleinrichtungen beschäftigen sich zunehmend mit dem Thema Forschungsdatenmanagement (FDM), um ihre Forschenden adäquat zu unterstützen. Nicht zuletzt aufgrund neuer Verlags- und Förderanforderungen wünschen sich Forschende Beratung und Orientierung, wie sie mit ihren Forschungsdaten umgehen sollen. Damit Hochschulen schnell und nachhaltig Lösungen zum institutionellen FDM etablieren können, haben fünf Berliner und Brandenburger Universitäten im gemeinsamen Verbundvorhaben FDMentor mit Förderung des Bundesministeriums für Bildung und Forschung (BMBF) entsprechende Leitfäden und Werkzeuge erarbeitet. Die innerhalb von zwei Jahren (2017–2019) entstandenen Ergebnisse in den Bereichen Strategieentwicklung, Forschungsdaten-Policy, rechtliche Aspekte und Kompetenzausbau finden über das Verbundprojekt hinaus ihre Anwendung.
Der Jüdische Kalender für das Jahr 5779 des Judaica-Portal Berlin-Brandenburg stellt jede der beteiligten Bibliothek auf einem Kalenderblatt vor. Auf der Vorderseite befindet sich jeweils ein doppeltes Kalendarium: Die Kalenderblätter folgen dem christlichen Jahr, parallel dazu sind die entsprechenden jüdischen Monatsangaben angegeben. Jüdische Feiertage werden durch hervorgehobene Zahlen im Kalendarium angezeigt. Auf der Rückseite finden sich diese Feiertage aufgelistet, ebenso wie die jüdischen Monatsnamen in lateinischer Schrift.
Zudem befindet sich auf der Vorderseite jeweils ein repräsentatives Bild der Bibliothek, mit dem daneben befindlichen QR-Code gelangt man direkt zum jeweiligen Bucheintrag im Judiaca-Portal. Auf der Rückseite gibt es eine kurze Bildbeschreibung zum abgedruckten Bild.
Zusätzlich stellt sich auf der Rückseite jede Bibliothek vor. Hier findet man die wichtigsten Informationen und Kontaktdaten.
Das Judaica-Portal Berlin-Brandenburg ist ein Gemeinschaftsprojekt des Selma Stern Zentrums für Jüdische Studien Berlin-Brandenburg in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV). Sie stellen sich gemeinsam auf einem Kalenderblatt vor. Daneben finden Sie Kalenderblätter folgender Bibliotheken:
• UB der Universität Potsdam
• UB der Freien Universität Berlin
• UB der Humboldt-Universität Berlin
• UB der Europa-Universität Viadrina Frankfurt (Oder)
• Staatsbibliothek zu Berlin – Preußischer Kulturbesitz
• Bibliothek des Zentrum für Antisemitismusforschung der Technischen Universität Berlin
• Bibliothek des Abraham Geiger Kollegs
• Bibliothek des Moses Mendelssohn Zentrums für europäisch-jüdische Studien
• Bibliothek des Jüdischen Museums Berlin
• Bibliothek der Jüdischen Gemeinde zu Berlin
• Bibliothek Institut Kirche und Judentum
• UB Johann Christian Senckenberg Frankfurt am Main
• Israelische Nationalbibliothek Jerusalem (RAMBI)
Die große Bedeutung der Informationstechnologie für die Wissenschaftsdisziplinen und die zentralen Infrastruktureinrichtungen der Hochschulen steht heutzutage außer Frage. Der Beitrag liefert einen historischen Überblick über die Einführung und Weiterentwicklung der IT in deutschen Hochschulen von den 1950er-Jahren bis heute, wobei der Fokus auf den Bibliotheken und Rechenzentren liegt. Es zeigt sich, dass die verschiedenen Phasen der Technologieentwicklung zu heterogenen IT-Organisationsstrukturen in den Hochschulen geführt haben. DFG und HRK empfehlen daher seit 20 Jahren die Klärung der Verantwortlichkeiten im Rahmen einer IT-Governance sowie die Implementierung eines CIO-Modells. Wie verschiedene Studien zeigen, ist die Umsetzung in der deutschen Hochschullandschaft bislang jedoch nur in Teilen gelungen. Die Herausforderung an vielen Hochschulen besteht nach wie vor darin, die IT-Organisation aus ihrer reaktiven Rolle zu befreien und zu einem aktiven Treiber der digitalen Transformation umzubauen.
Im Projekt „Forschungsdatenmanagement in Brandenburg (FDM-BB)“ wurden grundlegende Erkenntnisse bezüglich der Anforderungen und des Status Quo im Bereich Forschungsdatenmanagement (FDM) an den acht brandenburgischen Hochschulen generiert mit dem Ziel, daraus konkrete Handlungs- und Implementierungsempfehlungen für Brandenburg abzuleiten.
Mit Hilfe von spezifischen Umfragen (FactSheets, FDM-Palette) an den Hochschulen und Interviews mit den anderen geförderten FDM-Bundeslandinitiativen konnte eine Priorisierung der nächsten Schritte auf dem Weg hin zu einem institutionellen und nachhaltigen Forschungsdatenmanagement identifiziert werden, die jeweils in den Verantwortungsbereichen der folgenden drei Akteursgruppen liegen: Ministerium für Wirtschaft, Forschung und Kultur in Brandenburg (MWFK), die einzelne Hochschule und für gemeinsame Maßnahmen die kooperative Umsetzung durch (fast) alle Hochschulen.
Zusätzlich wurden Implementierungsempfehlungen erarbeitet, wie der lokale Kompetenzaufbau an den einzelnen Hochschulen in Brandenburg, die kooperative Bereitstellung landesweit relevanter IT-Dienste und Dienstleistungen sowie die Koordinierung FDM-BB.
Ziel ist auch, für Brandenburg gemeinsam eine Forschungsdatenstrategie zu formulieren, die alle brandenburgischen Einrichtungen einbezieht und mit Hilfe von kooperativ verteilten Verantwortlichkeiten dem (noch) sehr dynamischen Thema Forschungsdatenmanagement gerecht werden kann.
Das Dokument "Forschungsdatenmanagement bei personenbezogenen Daten - eine Handreichung" versammelt zentrale Inhalte, Verweise und Vorgehensweisen für Forscher*innen, die in einer Studie personenbezogene Daten erheben und diese verarbeiten, archivieren oder veröffentlichen wollen. Die Handreichung verweist an den entsprechenden Abschnitten auf weiterführende Materialien wie insbesondere die Handreichung „Datenschutz“ des Rats für die Sozial-, Verhaltens-, Bildungs- und Wirtschaftswissenschaften (RatSWD).
Forschungsdatenmanagement
(2021)
Forschungsdatenmanagement ist ein informationswissenschaftliches Thema, dessen Bedeutung kontinuierlich, spätestens aber seit dem Start der Nationalen Forschungsdateninfrastruktur (NFDI) immer präsenter wird. Zur Abbildung und Verortung von Arbeitsschwerpunkten für Informationswissenschaftler*innen wurde in der vorliegenden Arbeit ein aktuelles Korpus von 162 Stellenanzeigen, in denen Forschungsdatenmanagement erwähnt wird, ausgewertet. Das Korpus umfasst Stellenanzeigen, die über das Portal Open-BiblioJobs und die DFN-Mailingliste Forschungsdaten beworben wurden und deckt einen Zeitraum vom 01.03.2020 bis zum 22.11.2020 ab. Zur Auswertung des Korpus wurde eine Analysematrix erstellt, in welcher die Inhalte jeder Stellenanzeige nach formalen, administrativen und inhaltlichen Kriterien verzeichnet wurden. Die aus den Stellenanzeigen stammenden Anforderungen wurden in einem Forschungsdatenlebenszyklus mit insgesamt acht Teilaspekten verortet, hiervon sechs Stationen des Forschungsdatenlebenszyklus: „Forschungsvorhaben planen“, „Daten erheben“, „Daten aufbereiten und analysieren“, „Daten teilen und publizieren“, „Daten archivieren“, „Daten nachnutzen“, zusätzlich wurden die zwei Teilaspekte „allgemeine Kern- und Schlüsselkompetenzen“ und „übergreifende Querschnittsthemen“ hinzugefügt.
Dieser Praxisrepräsentation wurde eine Literaturanalyse gegenübergestellt, welche sich mit Anforderungen und Kompetenzen im Forschungsdatenmanagement, besonders aus informationswissenschaftlicher, infrastruktureller Sicht beschäftigt. Hierbei wurden exemplarisch Frameworks (international, national, institutionell), Praxisberichte (universitärer und außeruniversitärer Einrichtungen) und der Individualbericht eines Forschungsdatenmanagers ausgewertet. Zur Gewährleistung einer späteren Vergleichbarkeit wurden auch hier die genannten Kompetenzen und Aufgaben in einem gleichen Forschungsdatenlebenszyklus verortet und analysiert. Die abschließende Zusammenführung und Auswertung der um Aufgaben und Kompetenzen angereicherten Forschungsdatenlebenszyklen ermöglichte einen direkten Vergleich von Theorie und Praxis. Hierbei konnte eine große Kongruenz der Schwerpunktverteilung innerhalb des Forschungsdatenlebenszyklus aufgezeigt werden. Diese Aufgabenkonzentration, besonders in den Teilaspekten „allgemeine Kern- und Schlüsselkompetenzen“ und „übergreifende Querschnittsthemen“ bilden die Verteilung von Arbeitsschwerpunkten im Forschungsdatenmanagement für Informationswissenschaftler* innen deutlich ab.
We present a new set of global and local sea‐level projections at example tide gauge locations under the RCP2.6, RCP4.5, and RCP8.5 emissions scenarios. Compared to the CMIP5‐based sea‐level projections presented in IPCC AR5, we introduce a number of methodological innovations, including (i) more comprehensive treatment of uncertainties, (ii) direct traceability between global and local projections, and (iii) exploratory extended projections to 2300 based on emulation of individual CMIP5 models. Combining the projections with observed tide gauge records, we explore the contribution to total variance that arises from sea‐level variability, different emissions scenarios, and model uncertainty. For the period out to 2300 we further breakdown the model uncertainty by sea‐level component and consider the dependence on geographic location, time horizon, and emissions scenario. Our analysis highlights the importance of local variability for sea‐level change in the coming decades and the potential value of annual‐to‐decadal predictions of local sea‐level change. Projections to 2300 show a substantial degree of committed sea‐level rise under all emissions scenarios considered and highlight the reduced future risk associated with RCP2.6 and RCP4.5 compared to RCP8.5. Tide gauge locations can show large ( > 50%) departures from the global average, in some cases even reversing the sign of the change. While uncertainty in projections of the future Antarctic ice dynamic response tends to dominate post‐2100, we see substantial differences in the breakdown of model variance as a function of location, time scale, and emissions scenario.
We present a new set of global and local sea‐level projections at example tide gauge locations under the RCP2.6, RCP4.5, and RCP8.5 emissions scenarios. Compared to the CMIP5‐based sea‐level projections presented in IPCC AR5, we introduce a number of methodological innovations, including (i) more comprehensive treatment of uncertainties, (ii) direct traceability between global and local projections, and (iii) exploratory extended projections to 2300 based on emulation of individual CMIP5 models. Combining the projections with observed tide gauge records, we explore the contribution to total variance that arises from sea‐level variability, different emissions scenarios, and model uncertainty. For the period out to 2300 we further breakdown the model uncertainty by sea‐level component and consider the dependence on geographic location, time horizon, and emissions scenario. Our analysis highlights the importance of local variability for sea‐level change in the coming decades and the potential value of annual‐to‐decadal predictions of local sea‐level change. Projections to 2300 show a substantial degree of committed sea‐level rise under all emissions scenarios considered and highlight the reduced future risk associated with RCP2.6 and RCP4.5 compared to RCP8.5. Tide gauge locations can show large ( > 50%) departures from the global average, in some cases even reversing the sign of the change. While uncertainty in projections of the future Antarctic ice dynamic response tends to dominate post‐2100, we see substantial differences in the breakdown of model variance as a function of location, time scale, and emissions scenario.
Es darf gekocht werden
(2019)
Eine achtköpfige Delegation der Universität Potsdam (UP) besuchte vom 18. bis 21. November 2018 die Tel Aviv University (TAU) in Israel. Die Kooperation zwischen beiden Einrichtungen wurde durch einen »staff exchange« intensiviert. So konnten Mitarbeiter*innen der UP ihren Gegenpart an der TAU kennenlernen und sich inhaltlich austauschen. Der vorliegende Bericht basiert auf Gesprächen mit drei der insgesamt fünf Bibliotheksdirektorinnen sowie zwei weiteren Kolleginnen aus dem Bereich Erwerbung und Katalogisierung. Dabei wurden unterschiedliche Themenbereiche aus dem Bibliothekswesen und die Sicht beziehungsweise der Stand dazu an der TAU und der UP angesprochen. Der vorliegende Bericht geht auf die Themenfelder Bibliothekssystem, Open Access und Bibliothek als Raum ein.
Es darf gekocht werden
(2019)
Eine achtköpfige Delegation der Universität Potsdam (UP) besuchte vom 18. bis 21. November 2018 die Tel Aviv University (TAU) in Israel. Die Kooperation zwischen beiden Einrichtungen wurde durch einen »staff exchange« intensiviert. So konnten Mitarbeiter*innen der UP ihren Gegenpart an der TAU kennenlernen und sich inhaltlich austauschen. Der vorliegende Bericht basiert auf Gesprächen mit drei der insgesamt fünf Bibliotheksdirektorinnen sowie zwei weiteren Kolleginnen aus dem Bereich Erwerbung und Katalogisierung. Dabei wurden unterschiedliche Themenbereiche aus dem Bibliothekswesen und die Sicht beziehungsweise der Stand dazu an der TAU und der UP angesprochen. Der vorliegende Bericht geht auf die Themenfelder Bibliothekssystem, Open Access und Bibliothek als Raum ein.
Dieser Artikel thematisiert die technische Umsetzung eines Webportals und einer SQL-Datenbank (Output.UP), um die manuelle Erfassung und Auswertung von wissenschaftlichen Publikationen für die Universitätsbibliothek Potsdam weitestgehend zu automatisieren. Ein besonderes Augenmerk wird auf die Importe mittels API von ORCID, Crossref und Unpaywall gelegt. Nach Abschluss der Testphase wird Output.UP in einem Git-Repository für die Nachnutzung zur Verfügung gestellt.
Digitalisierung ist und bleibt in aller Munde. Spätestens mit Beginn der Corona-Pandemie und dem Wechsel vieler Mitarbeiter:innen ins Homeoffice sind die Notwendigkeiten und Anforderungen noch einmal deutlich gestiegen. Hinzu kommen diverse rechtliche Rahmenbedingungen (E-Government-Gesetze, OZG, SDG), die als Treiber der Digitalisierung fungieren. Wie aber kann die Verwaltungsdigitalisierung an einer Hochschule effizient und nachhaltig organisiert werden?
Die Tränen des Henri Quatre
(2014)
Der vorliegende zweite Band mit Texten aus dem Nachlass von Dieter Adelmann (1936–2008) macht eine der letzten Arbeiten, die ihr Verfasser anlässlich seines 70. Geburtstags aus der Hand gegeben hat, für ein breites Publikum zugänglich. Der Essay bildet dabei einen Abschluss von Adelmanns ersten, im weitesten Sinne philosophischen Publikationen, die nach der Doktorarbeit (Bd. 1 der Nachlasspublikationen) entstanden sind. Ausgehend von einer Beobachtung in Heinrich Manns epochaler Doppelromanbiografie des navarresisch-französischen protestantischen Königs Henri IV. untersucht Adelmann die Tränen- und Todesmetaphorik in dem Romanwerk aus den 1930er Jahren. Von hier aus wird eine Brücke zur literaturwissenschaftlichen Ästhetik und Erkenntnistheorie Walter Benjamins geschlagen, mit der sich Adelmann bereits in seinen Arbeiten zur Politkunst Klaus Staecks beschäftigt hatte. Dabei deckt der Verfasser Fehlinterpretationen der Benjaminschen Theorien durch dessen Freund und Nachlassverwalter Theodor W. Adorno auf.
Die Veränderungen im Bereich der Literaturerwerbung und -nutzung innerhalb der letzten sieben Jahre haben einen Neuentwurf des Mittelverteilungsmodells der Universitätsbibliothek Potsdam unumgänglich gemacht. Dieser gliedert sich klar in Segmente und verankert erstmals auch Open Access im Bibliotheksetat. Damit wird dem angestrebten Transformationsprozess Rechnung getragen.
Die Veränderungen im Bereich der Literaturerwerbung und -nutzung innerhalb der letzten sieben Jahre haben einen Neuentwurf des Mittelverteilungsmodells der Universitätsbibliothek Potsdam unumgänglich gemacht. Dieser gliedert sich klar in Segmente und verankert erstmals auch Open Access im Bibliotheksetat. Damit wird dem angestrebten Transformationsprozess Rechnung getragen.