Refine
Year of publication
Document Type
- Article (33)
- Monograph/Edited Volume (12)
- Review (2)
- Working Paper (2)
Language
- German (49)
Keywords
Institute
- ZIM - Zentrum für Informationstechnologie und Medienmanagement (49) (remove)
Die große Bedeutung der Informationstechnologie für die Wissenschaftsdisziplinen und die zentralen Infrastruktureinrichtungen der Hochschulen steht heutzutage außer Frage. Der Beitrag liefert einen historischen Überblick über die Einführung und Weiterentwicklung der IT in deutschen Hochschulen von den 1950er-Jahren bis heute, wobei der Fokus auf den Bibliotheken und Rechenzentren liegt. Es zeigt sich, dass die verschiedenen Phasen der Technologieentwicklung zu heterogenen IT-Organisationsstrukturen in den Hochschulen geführt haben. DFG und HRK empfehlen daher seit 20 Jahren die Klärung der Verantwortlichkeiten im Rahmen einer IT-Governance sowie die Implementierung eines CIO-Modells. Wie verschiedene Studien zeigen, ist die Umsetzung in der deutschen Hochschullandschaft bislang jedoch nur in Teilen gelungen. Die Herausforderung an vielen Hochschulen besteht nach wie vor darin, die IT-Organisation aus ihrer reaktiven Rolle zu befreien und zu einem aktiven Treiber der digitalen Transformation umzubauen.
Den Ausbau gestalten
(2019)
Mit RISE-DE liegt als FDMentor-Projektergebnis ein Referenzmodell für Strategieprozesse im institutionellen Forschungsdatenmanagement vor. RISE-DE bietet einen Bewertungsrahmen zur Selbstevaluation und Zielbestimmung und eignet sich als Werkzeug zur Gestaltung einer strukturierten, Stakeholder-orientierten Strategieentwicklung für das Forschungsdatenmanagement an Hochschulen und Forschungseinrichtungen.
RISE-DE basiert auf dem lose an Reifegradenmodellen orientierten RISE-Framework des DCC (RISE v1.1), wurde aber für den Einsatz in partizipativen Prozessen deutlich überarbeitet sowie inhaltlich an den deutschen Wissenschaftskontext und Entwicklungen in der guten Praxis im FDM angepasst. Ein mit Hilfe von RISE-DE erarbeitete Strategie erfüllt zugleich die von der Hochschulrektorenkonferenz und der League of European Research Universities formulierten Anforderungen.
Mit RISE-DE liegt als FDMentor-Projektergebnis ein Referenzmodell für Strategieprozesse im institutionellen Forschungsdatenmanagement (FDM) vor. RISE-DE bietet einen Bewertungsrahmen zur Selbstevaluation und Zielbestimmung und eignet sich als Werkzeug zur Gestaltung einer strukturierten, Stakeholder-orientierten Strategieentwicklung für das FDM an Hochschulen und Forschungseinrichtungen.
RISE-DE basiert auf dem lose an Reifegradenmodellen orientierten Research Infrastructure Self-Evaluation Framework (RISE v1.1) des Digital Curation Centre (DCC), wurde aber für den Einsatz in partizipativen Prozessen deutlich überarbeitet sowie inhaltlich an den deutschen Wissenschaftskontext und Entwicklungen in der guten Praxis im FDM angepasst. Eine mit Hilfe von RISE-DE erarbeitete Strategie erfüllt zugleich die von der Hochschulrektorenkonferenz (HRK) und der League of European Research Universities (LERU) formulierten Empfehlungen.
Die hier vorliegende RISE-DE Version 1.0 nimmt Erfahrungen aus dem Piloteinsatz an der Universität Potsdam sowie Feedback aus der Community auf. Es beinhaltet gegenüber der Vorversion zum einen Veränderungen an den Themen des Referenzmodells, zum anderen wurden Empfehlungen für FDM-Beginner deutlich erweitert und Erläuterungen für die Durchführung partizipativer Strategieprozesse hinzugefügt. In Zusammenarbeit mit der Hochschule für Angewandte Wissenschaften Hamburg entstand außerdem ein digitales Evaluations-Tool.
In dem Beitrag werden neue Untersuchungsergebnisse über die Errichtung der deutschen Herrschaft zwischen Teltow und Hohem Fläming dargelegt. Dabei waren im 12. Jahrhundert die Grafen von Belzig und freiedle Adelsgeschlechter die treibende Kraft, die aber im 13. Jahrhundert von den Magdeburger Erzbischöfen und den Markgrafen von Brandenburg abgelöst wurden.
Beschrieben werden die historischen Wurzeln der Computernetze (Telegraph, Telefon, Fernschreiber). Es werden Aspekte der Typisierung von Computernetzen vorgestellt und die Eigenschaften, Topologie und Zugriffsverfahren von Lokalen Netzen, Großstadtnetzen Weitverkehrsnetzen und Globalen Netzen erläutert. Betrachtet werden die beiden Grundformen des digitalen Übertragungsverfahrens (leitungsvermittelte und paketvermittelnde Datenkommunikation), die wichtigsten Standards und Protokolle von Computernetzen sowie die Arbeitsweise von Modems. Jeweils ein Abschnitt ist dem X.25-Wissenschaftsnetz WiN des Deutschen Forschungsnetz-Vereins und dem Internet gewidmet. Zum WiN erfolgen detaillierte Aussagen über Entstehung, Komponenten, Anwender und Kommunikations-Basisdienste dieses Netzes. Zum Internet wird auf die Netzorganisation sowie auf die Internetdienste Electronic Mail, File Transfer, Telnet, Gopher, WAIS und World Wide Web eingegangen. Abgeschlossen wird der Beitrag mit einigen Ausführungen zu den internationalen Datennetzen USENET und Compuserve.
Im November 1992 wurde an der Potsdamer Universität ein Schulungszentrum eröffnet, in welchem den Wissenschaftlern und Studenten der Universität die nötigen Kenntnisse und Fertigkeiten für den Zugriff auf die großen Online-Datenbanken des internationalen Datenbankhosts STN (The Scientific & Technical Information Network) vermittelt werden sollen. Hard- und Software für dieses Zentrum wurden durch das Fachinformationszentrum Karlsruhe aus Fördermitteln des BMFT bereitgestellt. Über das deutsche Wissenschaftsnetz (WiN) und weiterführende internationale Leitungskanäle erfolgt der Zugang zu den ca. 130 Datenbanken des STN-Hosts mit den Standorten Columbus (USA), Karlsruhe und Tokyo (Japan). Das Datenbankspektrum von STN umfaßt neben Literaturdatenbanken aller Wissensgebiete auch zahlreiche Fakten- und Strukturdatenbanken (hauptsächlich zur Chemie und zu ihren Nachbardisziplinen) sowie Patentdatenbanken des In- und Auslands. Mit der vorgesehenen breiten Palette von Aus- und Weiterbildungsmaßnahmen wird vom STN-Schulungszentrum der Grundstein dafür gelegt, daß die Qualität einer fachwissenschaftlichen Arbeit künftig auch daran gemessen werden kann, welche Recherchen zum Arbeitsthema der Autor in den weltweiten elektronisch gespeicherten Informationsbeständen durchgeführt hat.
Am 5.Oktober 1992 wurde das Online-Schulungszentrum der Universität Potsdam in Betrieb genommen. Nach den Hochschulen in Merseburg und Ilmenau ist das Potsdamer Schulungszentrum, vom Gründungsrektor der Universität bei der feierlichen Eröffnung als ein wertvolles Stück Kulturtechnik bezeichnet, die dritte derartige Einrichtung in den neuen Bundesländern. An acht PC-Arbeitsplätzen ist über das Wissenschaftsnetz des Deutschen Forschungsnetz-Vereins der Zugriff auf sämtliche Online-Datenbanken des internationalen Hostverbundes STN (Scientific & Technical Information Network) möglich. Die 130 Datenbanken enthalten über 100 Millionen Nachweise zu wissenschaftlichen Veröffentlichungen und Fakten auf allen Gebieten von Wissenschaft und Technik. Das Fachinformationszentrum Karlsruhe als Vertragspartner der Universität bietet für die Startphase kostenlosen Datenbankzugriff und wird auch danach die Datenbanken zu besonders günstigen Konditionen bereitstellen. Aufgabe des Schulungszentrums ist es, die Studenten und Mitarbeiter der Fachbereiche der Universität mit den Zugriffsmöglichkeiten auf diese Weltressourcen des Wissens vertraut zu machen und sie in die Lage zu versetzen, ihre wissenschaftliche Arbeit unter Nutzung der Online-Datenbanktechnologie durchzuführen.
Der Romantiker auf dem Thron
(1993)
Die gegenwärtig angewendeten Methoden zum Recherchieren in Fachinformations-Datenbanken und zum Bestimmen der Effektivität der Recherche-Ergebnisse behindern eine umfassende Nutzung des vielfältigen Online- Informationsangebotes. Die Lösung des Problems ist in zwei miteinander eng verbundenen Richtungen zu suchen: a) Gewährleistung vollständiger Transparenz der Datenbanken durch Offenlegen der Datenbestandsstrukturen; b) Organisation der Recherche als dynamischer Vorgang, bei dem die Suchfrage fortwährend den durch die Datenbanktransparenz ermöglichten neuen Sichten auf die Datenbestände angepaßt wird. Zum Arbeiten mit transparenten Datenbanken werden insbesondere leistungsfähigere Hardware (Bildschirmtechnik), weiterentwickelte Kommunikations- und Retrieval-Software sowie schnellere Übertragungswege benötigt.
Repräsentative Literatur- und Patentdatenbanken der Online-Welt informieren über den größten Teil des Weltaufkommens an wissenschaftlichen Publikationen und Patenten. Sie widerspiegeln damit in hohem Maße die Forschungs- und Entwicklungsarbeiten, die in den verschiedenen Ländern und Institutionen erfolgen. Das mächtige Informationspotential der Datenbanken ermöglicht es, mittels wissenschaftsmetrischer Analysen der Datenbankinhalte relativ präzise Aussagen über Gegenstände, Umfang und Strukturen der Forschungsprozesse zu gewinnen und eine zeitlich begrenzte Vorausschau über Weiterentwicklungen und Neubildungen in den unterschiedlichsten Forschungsfeldern zu liefern. Zuverlässigkeit und Nachprüfbarkeit der aus den Datenbanken abgeleiteten Informationen vorausgesetzt, bilden die Analyse-Ergebnisse die Vorstufe zu einem flexiblen System von Orientierungs- und Entscheidungshilfen für alle Arten und Ebenen des Managements von Forschung und Entwicklung. Datenbankanalysen zu Forschungsfeldern bzw. -themen müssen grundsätzlich unter internationalem Aspekt erfolgen. Datenbanken, welche diese Forderung erfüllen, umfassen in der Regel mehrere Millionen Informationsnachweise. Beispiele sind die bibliographischen Datenbanken Chemical Abstracts (12,1), INSPEC (5), BIOSIS (9,7) oder die internationale Patentdatenbank WPINDEX (7 Millionen Nachweise). Dieses Informationsvolumen wächst wöchentlich um mehrere tausend Nachweise. In Abhängigkeit von den in die Analyse einzubeziehenden Themen müssen die weltweit repräsentativsten Datenbanken ausgewählt, zu einem Cluster zusammengefaßt und im weiteren Analyseprozeß wie eine einzige Superdatenbank behandelt werden. Es wäre falsch, die Datenbanken getrennt voneinander zu analysieren oder sich sogar auf eine einzige Datenbank zu beschränken, da die bereitstehenden Informationsmengen dann immer unvollständig bleiben und die Analysen zu verzerrten Ergebnissen führen würden. Die Datenbankanalysen erfolgen unter der Prämisse, daß möglichst die Gesamtmenge der einschlägigen und in den untersuchten Datenbanken gespeicherten Publikationsnachweise einbezogen wird. Zugleich gilt es zu verhindern, daß nichtrelevante Publikationen die Ergebnisse verfälschen. So ist es beispielsweise bei Analysen zum Forschungsthema "SQID" (superconducting quantum interference device) unerläßlich, alle Publikationen zum biologischen Sqid (eine spezielle Molluskenart) auszuschließen. Richtiges und vollständiges Auswählen der Suchbegriffe für die erforderlichen Datenbankrecherchen besitzt daher hohe Priorität. Beispielsweise waren bei einer Datenbankcluster-Analyse zum Thema "Dünne organische Schichten" 115 englische und deutsche Fachtermini zu berücksichtigen. Große Bedeutung hat auch die Bestimmung der selektionsfähigen Datenbankfelder. Häufigkeitsanalysen können nur mit denjenigen Datenfeldern erfolgen, die in sämtlichen Datenbanken des Clusters selektierbar sind. Wegen der Uneinheitlichkeit der Datenbankstrukturen läßt sich dieses Kriterium nicht immer hinreichend erfüllen. Wissenschaftsmetrische Datenbankanalysen haben nur dann einen Zweck, wenn in den Managementebenen von Forschung und Entwicklung die großen Möglichkeiten des im Beitrag detailliert beschriebenen Verfahrens erkannt und zielgerichtet für forschungsstrategische Entscheidungen genutzt werden.
In den großen bibliographischen Online-Datenbanken, wie sie auf naturwissenschaftlichem Gebiet mit INSPEC, CA (Chemical Abstracts), BIOSIS u.v.a. verfügbar sind, wird der größte Teil der weltweit veröffentlichten wissenschaftlichen Publikationen nachgewiesen. Darin sind auch alle Veröffentlichungen eingeschlossen, die seit Beginn der Forschungen über Dünne organische Schichten und Grenzflächen bis in die Gegenwart erschienen sind. Dazu kommen noch alle Patentschriften, die in dem weltübergreifenden Fundus der Patent-Datenbanken nach-gewiesen werden. Die Zahlen an wissenschaftlichen Publikationen und Patenten und die Verteilung ihrer Häufigkeiten sind ein bedeutsamer Indikator für den Verlauf der Forschun-gen und Entwicklungen auf den einzelnen Fachgebieten. Die quantitativen und qua-litativen Veränderungen der in den Online-Datenbanken gespeicherten Mengen an Informationseinheiten sind zum einen das Spiegelbild der vorausgegangenen Verän-derungen in den Forschungs- und Entwicklungsprozessen. Zum anderen lassen sich aus dem bisherigen Verlauf des Publikations- und Patentgeschehens begründete Vermutungen ableiten, wo im gegebenen Moment und in der allernächsten Zeit Schwerpunkte auf den betrachteten Forschungs- und Entwicklungsgebieten liegen oder liegen werden. Die grundlegende Methode der Datenbankanalysen besteht im Bestimmen der Publikationshäufigkeiten und ihrer Veränderungen zu ausgewählten Themen von Forschung und Entwicklung. Wesentliche Aspekte für das Darstellen von Publikations- und Patenthäufigkeiten sind: a) die Häufigkeiten von Veröffentlichungen zu fachlichen Einzelthemen oder Themengebieten bis zu komplexen Forschungsfeldern (z.B. Nanotechnologie); b) die zeitlichen Abläufe im Publikations- und Patentgeschehen; c) die territoriale Verteilung der Veröffentlichungen; d) die Anteile der verschiedenen Einrichtungen an den Mengen von Veröffentlichungen. Der Aussagewert entsprechender Häufigkeitsstatistiken läßt sich durch mehrdimensionale Betrachtungen der Publikationsmengen noch beträchtlich erhöhen. Typische Beispiele hierfür sind: a) der zeitliche Verlauf des Publikationsgeschehens in ausgewählten Ländern; b) die Anteile ausgewählter Einrichtungen an den Gesamtmengen an Publikationen und Patenten zu bestimmten Forschungsthemen; c) der Verlauf des Publikationsgeschehens zu bestimmten Forschungs- und Entwicklungsthemen in bestimmten Ländern und Zeitabschnitten. Die ermittelten Häufigkeiten sowie ihre Veränderungen werden mit statistischen Verfahren ausgewertet und in Form von Texten, Tabellen und graphischen Darstellungen bereitgestellt. Die Auswertungsergebnisse sind in erster Linie für den Personenkreis bestimmt, der maßgeblich am Vorbereiten und Treffen von Entscheidungen über die im eigenen Bereich erfolgenden Forschungs- und Entwicklungsvorhaben beteiligt ist. Die zum Thema "Dünne organische Schichten" erfolgten Häufigkeitsanalysen und die daraus ableitbaren Schlußfolgerungen wurden während des Workshops als Posterschau vorgestellt.
Für forschungspolitische und -strategische Entscheidungsprozesse benötigt das Wissenschafts- bzw. Forschungsmanagement umfassende, verdichtete Informationen über die Aktivitäten der auf besonders re-levanten Forschungsfeldern tätigen wissenschaftlichen Institutionen des In- und Auslands. Der Beitrag skizziert die Möglichkeiten, mittels Analysen von Grup-pen der weltweit größten bibliographischen Online-Datenbanken ent-sprechende Informationen zu gewinnen. Am Beispiel von Forschungen zum Thema "Dünne organische Schichten" wird gezeigt, wie anhand der Ergebnisse gezielter Datenbankanalysen thematische, länderweite oder zeitkritische Forschungsschwerpunkte erkannt werden können. Die praktischen Untersuchungen erfolgten durch den Autor in enger Zusammenarbeit mit dem Institut für Festkörperphysik der Universität Potsdam.