Refine
Year of publication
Document Type
- Article (33)
- Monograph/Edited Volume (12)
- Review (2)
- Working Paper (2)
Language
- German (49)
Keywords
Institute
- ZIM - Zentrum für Informationstechnologie und Medienmanagement (49) (remove)
In dem Beitrag werden neue Untersuchungsergebnisse über die Errichtung der deutschen Herrschaft zwischen Teltow und Hohem Fläming dargelegt. Dabei waren im 12. Jahrhundert die Grafen von Belzig und freiedle Adelsgeschlechter die treibende Kraft, die aber im 13. Jahrhundert von den Magdeburger Erzbischöfen und den Markgrafen von Brandenburg abgelöst wurden.
Der Romantiker auf dem Thron
(1993)
Im November 1992 wurde an der Potsdamer Universität ein Schulungszentrum eröffnet, in welchem den Wissenschaftlern und Studenten der Universität die nötigen Kenntnisse und Fertigkeiten für den Zugriff auf die großen Online-Datenbanken des internationalen Datenbankhosts STN (The Scientific & Technical Information Network) vermittelt werden sollen. Hard- und Software für dieses Zentrum wurden durch das Fachinformationszentrum Karlsruhe aus Fördermitteln des BMFT bereitgestellt. Über das deutsche Wissenschaftsnetz (WiN) und weiterführende internationale Leitungskanäle erfolgt der Zugang zu den ca. 130 Datenbanken des STN-Hosts mit den Standorten Columbus (USA), Karlsruhe und Tokyo (Japan). Das Datenbankspektrum von STN umfaßt neben Literaturdatenbanken aller Wissensgebiete auch zahlreiche Fakten- und Strukturdatenbanken (hauptsächlich zur Chemie und zu ihren Nachbardisziplinen) sowie Patentdatenbanken des In- und Auslands. Mit der vorgesehenen breiten Palette von Aus- und Weiterbildungsmaßnahmen wird vom STN-Schulungszentrum der Grundstein dafür gelegt, daß die Qualität einer fachwissenschaftlichen Arbeit künftig auch daran gemessen werden kann, welche Recherchen zum Arbeitsthema der Autor in den weltweiten elektronisch gespeicherten Informationsbeständen durchgeführt hat.
Beschrieben werden die historischen Wurzeln der Computernetze (Telegraph, Telefon, Fernschreiber). Es werden Aspekte der Typisierung von Computernetzen vorgestellt und die Eigenschaften, Topologie und Zugriffsverfahren von Lokalen Netzen, Großstadtnetzen Weitverkehrsnetzen und Globalen Netzen erläutert. Betrachtet werden die beiden Grundformen des digitalen Übertragungsverfahrens (leitungsvermittelte und paketvermittelnde Datenkommunikation), die wichtigsten Standards und Protokolle von Computernetzen sowie die Arbeitsweise von Modems. Jeweils ein Abschnitt ist dem X.25-Wissenschaftsnetz WiN des Deutschen Forschungsnetz-Vereins und dem Internet gewidmet. Zum WiN erfolgen detaillierte Aussagen über Entstehung, Komponenten, Anwender und Kommunikations-Basisdienste dieses Netzes. Zum Internet wird auf die Netzorganisation sowie auf die Internetdienste Electronic Mail, File Transfer, Telnet, Gopher, WAIS und World Wide Web eingegangen. Abgeschlossen wird der Beitrag mit einigen Ausführungen zu den internationalen Datennetzen USENET und Compuserve.
Am 5.Oktober 1992 wurde das Online-Schulungszentrum der Universität Potsdam in Betrieb genommen. Nach den Hochschulen in Merseburg und Ilmenau ist das Potsdamer Schulungszentrum, vom Gründungsrektor der Universität bei der feierlichen Eröffnung als ein wertvolles Stück Kulturtechnik bezeichnet, die dritte derartige Einrichtung in den neuen Bundesländern. An acht PC-Arbeitsplätzen ist über das Wissenschaftsnetz des Deutschen Forschungsnetz-Vereins der Zugriff auf sämtliche Online-Datenbanken des internationalen Hostverbundes STN (Scientific & Technical Information Network) möglich. Die 130 Datenbanken enthalten über 100 Millionen Nachweise zu wissenschaftlichen Veröffentlichungen und Fakten auf allen Gebieten von Wissenschaft und Technik. Das Fachinformationszentrum Karlsruhe als Vertragspartner der Universität bietet für die Startphase kostenlosen Datenbankzugriff und wird auch danach die Datenbanken zu besonders günstigen Konditionen bereitstellen. Aufgabe des Schulungszentrums ist es, die Studenten und Mitarbeiter der Fachbereiche der Universität mit den Zugriffsmöglichkeiten auf diese Weltressourcen des Wissens vertraut zu machen und sie in die Lage zu versetzen, ihre wissenschaftliche Arbeit unter Nutzung der Online-Datenbanktechnologie durchzuführen.
Die gegenwärtig angewendeten Methoden zum Recherchieren in Fachinformations-Datenbanken und zum Bestimmen der Effektivität der Recherche-Ergebnisse behindern eine umfassende Nutzung des vielfältigen Online- Informationsangebotes. Die Lösung des Problems ist in zwei miteinander eng verbundenen Richtungen zu suchen: a) Gewährleistung vollständiger Transparenz der Datenbanken durch Offenlegen der Datenbestandsstrukturen; b) Organisation der Recherche als dynamischer Vorgang, bei dem die Suchfrage fortwährend den durch die Datenbanktransparenz ermöglichten neuen Sichten auf die Datenbestände angepaßt wird. Zum Arbeiten mit transparenten Datenbanken werden insbesondere leistungsfähigere Hardware (Bildschirmtechnik), weiterentwickelte Kommunikations- und Retrieval-Software sowie schnellere Übertragungswege benötigt.
Repräsentative Literatur- und Patentdatenbanken der Online-Welt informieren über den größten Teil des Weltaufkommens an wissenschaftlichen Publikationen und Patenten. Sie widerspiegeln damit in hohem Maße die Forschungs- und Entwicklungsarbeiten, die in den verschiedenen Ländern und Institutionen erfolgen. Das mächtige Informationspotential der Datenbanken ermöglicht es, mittels wissenschaftsmetrischer Analysen der Datenbankinhalte relativ präzise Aussagen über Gegenstände, Umfang und Strukturen der Forschungsprozesse zu gewinnen und eine zeitlich begrenzte Vorausschau über Weiterentwicklungen und Neubildungen in den unterschiedlichsten Forschungsfeldern zu liefern. Zuverlässigkeit und Nachprüfbarkeit der aus den Datenbanken abgeleiteten Informationen vorausgesetzt, bilden die Analyse-Ergebnisse die Vorstufe zu einem flexiblen System von Orientierungs- und Entscheidungshilfen für alle Arten und Ebenen des Managements von Forschung und Entwicklung. Datenbankanalysen zu Forschungsfeldern bzw. -themen müssen grundsätzlich unter internationalem Aspekt erfolgen. Datenbanken, welche diese Forderung erfüllen, umfassen in der Regel mehrere Millionen Informationsnachweise. Beispiele sind die bibliographischen Datenbanken Chemical Abstracts (12,1), INSPEC (5), BIOSIS (9,7) oder die internationale Patentdatenbank WPINDEX (7 Millionen Nachweise). Dieses Informationsvolumen wächst wöchentlich um mehrere tausend Nachweise. In Abhängigkeit von den in die Analyse einzubeziehenden Themen müssen die weltweit repräsentativsten Datenbanken ausgewählt, zu einem Cluster zusammengefaßt und im weiteren Analyseprozeß wie eine einzige Superdatenbank behandelt werden. Es wäre falsch, die Datenbanken getrennt voneinander zu analysieren oder sich sogar auf eine einzige Datenbank zu beschränken, da die bereitstehenden Informationsmengen dann immer unvollständig bleiben und die Analysen zu verzerrten Ergebnissen führen würden. Die Datenbankanalysen erfolgen unter der Prämisse, daß möglichst die Gesamtmenge der einschlägigen und in den untersuchten Datenbanken gespeicherten Publikationsnachweise einbezogen wird. Zugleich gilt es zu verhindern, daß nichtrelevante Publikationen die Ergebnisse verfälschen. So ist es beispielsweise bei Analysen zum Forschungsthema "SQID" (superconducting quantum interference device) unerläßlich, alle Publikationen zum biologischen Sqid (eine spezielle Molluskenart) auszuschließen. Richtiges und vollständiges Auswählen der Suchbegriffe für die erforderlichen Datenbankrecherchen besitzt daher hohe Priorität. Beispielsweise waren bei einer Datenbankcluster-Analyse zum Thema "Dünne organische Schichten" 115 englische und deutsche Fachtermini zu berücksichtigen. Große Bedeutung hat auch die Bestimmung der selektionsfähigen Datenbankfelder. Häufigkeitsanalysen können nur mit denjenigen Datenfeldern erfolgen, die in sämtlichen Datenbanken des Clusters selektierbar sind. Wegen der Uneinheitlichkeit der Datenbankstrukturen läßt sich dieses Kriterium nicht immer hinreichend erfüllen. Wissenschaftsmetrische Datenbankanalysen haben nur dann einen Zweck, wenn in den Managementebenen von Forschung und Entwicklung die großen Möglichkeiten des im Beitrag detailliert beschriebenen Verfahrens erkannt und zielgerichtet für forschungsstrategische Entscheidungen genutzt werden.
Für forschungspolitische und -strategische Entscheidungsprozesse benötigt das Wissenschafts- bzw. Forschungsmanagement umfassende, verdichtete Informationen über die Aktivitäten der auf besonders re-levanten Forschungsfeldern tätigen wissenschaftlichen Institutionen des In- und Auslands. Der Beitrag skizziert die Möglichkeiten, mittels Analysen von Grup-pen der weltweit größten bibliographischen Online-Datenbanken ent-sprechende Informationen zu gewinnen. Am Beispiel von Forschungen zum Thema "Dünne organische Schichten" wird gezeigt, wie anhand der Ergebnisse gezielter Datenbankanalysen thematische, länderweite oder zeitkritische Forschungsschwerpunkte erkannt werden können. Die praktischen Untersuchungen erfolgten durch den Autor in enger Zusammenarbeit mit dem Institut für Festkörperphysik der Universität Potsdam.
In den großen bibliographischen Online-Datenbanken, wie sie auf naturwissenschaftlichem Gebiet mit INSPEC, CA (Chemical Abstracts), BIOSIS u.v.a. verfügbar sind, wird der größte Teil der weltweit veröffentlichten wissenschaftlichen Publikationen nachgewiesen. Darin sind auch alle Veröffentlichungen eingeschlossen, die seit Beginn der Forschungen über Dünne organische Schichten und Grenzflächen bis in die Gegenwart erschienen sind. Dazu kommen noch alle Patentschriften, die in dem weltübergreifenden Fundus der Patent-Datenbanken nach-gewiesen werden. Die Zahlen an wissenschaftlichen Publikationen und Patenten und die Verteilung ihrer Häufigkeiten sind ein bedeutsamer Indikator für den Verlauf der Forschun-gen und Entwicklungen auf den einzelnen Fachgebieten. Die quantitativen und qua-litativen Veränderungen der in den Online-Datenbanken gespeicherten Mengen an Informationseinheiten sind zum einen das Spiegelbild der vorausgegangenen Verän-derungen in den Forschungs- und Entwicklungsprozessen. Zum anderen lassen sich aus dem bisherigen Verlauf des Publikations- und Patentgeschehens begründete Vermutungen ableiten, wo im gegebenen Moment und in der allernächsten Zeit Schwerpunkte auf den betrachteten Forschungs- und Entwicklungsgebieten liegen oder liegen werden. Die grundlegende Methode der Datenbankanalysen besteht im Bestimmen der Publikationshäufigkeiten und ihrer Veränderungen zu ausgewählten Themen von Forschung und Entwicklung. Wesentliche Aspekte für das Darstellen von Publikations- und Patenthäufigkeiten sind: a) die Häufigkeiten von Veröffentlichungen zu fachlichen Einzelthemen oder Themengebieten bis zu komplexen Forschungsfeldern (z.B. Nanotechnologie); b) die zeitlichen Abläufe im Publikations- und Patentgeschehen; c) die territoriale Verteilung der Veröffentlichungen; d) die Anteile der verschiedenen Einrichtungen an den Mengen von Veröffentlichungen. Der Aussagewert entsprechender Häufigkeitsstatistiken läßt sich durch mehrdimensionale Betrachtungen der Publikationsmengen noch beträchtlich erhöhen. Typische Beispiele hierfür sind: a) der zeitliche Verlauf des Publikationsgeschehens in ausgewählten Ländern; b) die Anteile ausgewählter Einrichtungen an den Gesamtmengen an Publikationen und Patenten zu bestimmten Forschungsthemen; c) der Verlauf des Publikationsgeschehens zu bestimmten Forschungs- und Entwicklungsthemen in bestimmten Ländern und Zeitabschnitten. Die ermittelten Häufigkeiten sowie ihre Veränderungen werden mit statistischen Verfahren ausgewertet und in Form von Texten, Tabellen und graphischen Darstellungen bereitgestellt. Die Auswertungsergebnisse sind in erster Linie für den Personenkreis bestimmt, der maßgeblich am Vorbereiten und Treffen von Entscheidungen über die im eigenen Bereich erfolgenden Forschungs- und Entwicklungsvorhaben beteiligt ist. Die zum Thema "Dünne organische Schichten" erfolgten Häufigkeitsanalysen und die daraus ableitbaren Schlußfolgerungen wurden während des Workshops als Posterschau vorgestellt.
Dateiverwaltung
(1995)
Das kontinuierliche computergestützte Analysieren von bibliographischen Online-Datenbanken liefert verdichtete Informationen über Richtungen, Ausmaße und Veränderungen weltweit stattfindender Forschungs- und Entwicklungsaktivitäten. Informationen dieser Art kön-nen Entscheidungen über das Aufnehmen, Verstärken, Korrigieren oder Beenden von Forschungs- und Entwicklungsarbeiten wirkungsvoll unterstützen. Anhand von Beispielen werden Ziel und Methoden der Datenbankanalysen dargestellt. Es wird untersucht, inwieweit bibliographische Online-Datenbanken als Abbild der Forschungs- und Entwicklungsaktivitäten aufgefaßt werden können und wie zuverlässig dieses Abbild ist. Grenzen der Datenbankanalysen werden aufgezeigt und Wege zur Umwandlung der Analyse-Ergebnisse in praktisch verwertbare Aussagen beschrieben. Zielgruppe dieser Informationen und zugleich Auftraggeber für die entsprechenden Datenbankanalysen sind Personen und Gremien, die in den verschiedenen gesellschaftlichen Bereichen und auf den unterschiedlichen Leitungsebenen für das Management von Forschungs- und Enwicklungsarbeiten zuständig sind. Der Beitrag entstand im Ergebnis von Analysen der weltweit größten bibliographischen Datenbanken auf naturwissenschaftlichem Gebiet. Die Datenbankanalysen erfolgten in Zusammenarbeit mit dem Institut für Festkörperphysik der Universität Potsdam zum Forschungsgegenstand "Dünne organische Schichten", einem Teilgebiet des Forschungsfeldes zur Nanotechnologie. Neben den bibliographischen Datenbanken sind Patentdatenbanken eine wichtige Quelle für Informationen zur Leitung von Forschung und Entwicklung. Auf Grund der Spezifik von Patentdatenbanken müssen Fragen der Analyse dieser Datenbanken gesondert untersucht werden.
Multimedia im engeren Sinne ist die anwendungsorientierte Kombination von digitalisierten medialen Komponenten (geschriebener und gesprochener Text, statische und bewegte Grafik, Fotos und andere Bilder, Geräusche, Musik- und Filmsequenzen), die sowohl auf autonom arbeitenden als auch auf vernetzten Computern einsetzbar ist. Im weitergefaßten Sinn versteht man unter Multimedia das immer mehr zusammenwachsende Gefüge der hauptsächlichen Medien gesellschaftlicher Kommunikation wie Television, Rundfunk, Print, Telefonie, bei dem die, mit Ausnahme des Mediums Telefon, bisher einseitig gerichtete Verbindung vom Medium zum Empfänger (Zuschauer, Hörer, Leser) zu einer Kommunikation in beide Richtungen entwickelt wird. Der bisher nur als Empfänger agierende Mensch kann dadurch aktiv in den Kommunikationsprozeß eingreifen und mehr Selbstbestimmung im Umgang mit den Medien erreichen. Auf dieser Basis entstehen unter komplexer Einbeziehung von Sprache, Bild, Ton, Film etc. neue Formen menschlicher Tätigkeit. In den Prozessen der Aus- und Weiterbildung sind sie als "Teleteaching" und "Telelearning" bekannt. Das Erzeugen von Multimedia-Anwendungen hat sich zu einer eigenen Branche mit einer Vielzahl neuer Qualifikationsforderungen entwickelt. Berufe wie Multimedia-Produzent, Multimedia-Autor, Multimedia-Konzeptionist, Multimedia-Screendesigner, 3D-Designer, Online-Designer und Multimedia-Programmierer nehmen in den Lehrprogrammen einschlägiger Ausbildungsinstitutionen bereits einen festen Platz ein. Interessenvertreter der On- und Offline- Multimediabranche ist der 1995 gegründete Deutsche Multimedia Verband (dmmv e.V.), der sich als Ansprechpartner für Industrie, Politik, Institutionen, Behörden und Presse versteht. Zu den Arbeitsschwerpunkten des dmmv gehören Ausbildung, rechtliche Aspekte, Qualitätssicherung sowie Angebots- und Kalkulationsrichtlinien auf dem Gebiet von Multimedia. Die Notwendigkeit einer gesellschaftlichen Einflußnahme auf Multimedia resultiert nicht zuletzt aus dem veränderten Verhalten der potentiellen Anwender, die sich nach einer Phase des "Aha-Erlebnisses" nicht mehr mit multimedialen "Clickshows" abspeisen lassen, sondern sinnvolle und komfortable Szenarien erwarten, mit denen ein konkreter und erkennbarer Nutzen erzielbar ist. Lösungsansätze dieser Art finden sich auch an verschiedenen Universitäten. Vielerorts entstehen kleinere multimediagestützte Lernumgebungen, die für Studenten und Dozenten gleichermaßen von Nutzen sind. Beispielsweise können in medizinischen Fächern an virtuellen Versuchstieren chirurgische Eingriffe geprobt werden. In den Fächern Informatik und Elektrotechnik lassen sich auf dem Computer komplexe Schaltungen simulieren. Weltweite Computervernetzung erlaubt den Studierenden unterschiedlicher Universitäten und Länder die Teilnahme an gemeinsamen Kursen. Zum Beispiel können Studierende der Informatik und der Biochemie einen Kurs zum Biocomputing besuchen, der von einer Vielzahl Universitäten aus aller Welt gestaltet wird. In allen Fachrichtungen lassen sich per Electronic Mail Studienmaterialien (Skripte, Aufgabenstellungen, Computerprogramme) verschicken und diskutieren. Interessant sind multimediale Projekte, in denen Studierende und Lehrende gemeinsam die Inhalte einer Lernumgebung erarbeiten. Schon in der nächsten Zukunft dürften Lehrangebote für Studierende kommerziell angeboten werden. Es wird erwartet, daß virtuelle und vor allem interaktive Vorlesungen die didaktische Qualität traditioneller Vorlesungen deutlich übertreffen. Wenn der Vorlesung nicht mehr "vor Ort" beigewohnt werden muß, ist auch mit einer spürbaren Entschärfung des Problems überfüllter Hörsäle zu rechnen.
Zur Entwicklung der "Deutschen Gesellschaft für Dokumentation" (DGD) in Richtung einer solidarischen Fachgemeinschaft wird regelmäßiges Durchführen von Ideenberatungen (brainstorming) als wirkungsvolle Methode des Findens von Lösungen zu Sachproblemen empfohlen. Zwei Ziele sind damit verbunden: 1. das Finden von Wegen zur Verwirklichung bereits vorliegender Ideen, Konzepte und Projekte; 2. das Entwickeln neuer Ideen, deren Realisierung einen hohen Nutzen erwarten läßt. Beim Vorbereiten und Durchführen solcher Ideenberatungen muß eine Reihe methodischer und organisatorischer Regeln beachtet werden. Sie betreffen hauptsächlich den Teilnehmerkreis, die Durchführungsmethode, die Beratungsleitung und Beratungsdauer sowie das Auswerten der Ergebnisse. Der Autor gibt hierzu, ausgehend von eigenen Erfahrungen, eine Reihe von praktischen Empfehlungen. Als Anregung werden zwei Themenvorschläge für Ideenberatungen unterbreitet. Vorschlag 1 gilt dem Verwirklichen eines schon ausgearbeiteten Projektes zum wissenschaftsmetrischen Analysieren großer Online- Datenbanken mit dem Ziel, forschungstrategisch relevante, hochverdichtete Informationen für das Forschungs- und Entwicklungsmanagement zu gewinnen. Gegenstand von Vorschlag 2 ist das Suchen neuer Ideen zur informationswissenschaftlich fundierten Gestaltung der Fachinformationsangebote im Internet, speziell im World Wide Web.
Arbeitsgruppe Video
(1999)
Der Fachverband "Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis e.V." (DGI) befindet sich in der Phase der Neuorientierung, die maßgeblich von den rasanten Entwicklungen auf dem Gebiet der IuK-Technologien und -Medien geprägt wird. Es ist für den Fachverband unverzichtbar, unter diesen Bedingungen seinen eigenen, unverwechselbaren Beitrag zum gesamtgesellschaftlichen Progress zu leisten. Unverwechselbares setzt eigene, fest umrissene Gegenstandsbereiche mit entsprechenden konkreten Ziel- und Aufgabenstellungen voraus. Allgemeinplätze und Unzulänglichkeiten auf diesem Gebiet behindern ein fruchtbares Zusammenwirken mit Kooperationspartnern wie Informatik, Multimediasektor u.a. Zum ständigen Überprüfen und Präzisieren der Gegenstandsbereiche sind kontinuierlich stattfindende Ideenberatungen (brain storming), deren Ergebnisse in die Entscheidungsprozesse der Verbandsarbeit einfliessen müssen, ein gut geeignetes Mittel. Das Bestimmen der Arbeitsgegenstände muß mit Rückbesinnung auf das schon früher Geleistete erfolgen. Zu diesem Zweck sollte im Rahmen der Fachgruppenarbeit der DGI ein spezielles Arbeitsgremium zur Wissenschafts- und Praxisgeschichte der Information und Dokumentation (IuD) eingerichtet werden.
Ein Beitrag zur Diskussion über die Zukunft der Datenbankhosts. Aus der Sicht von Wissenschaftpolitik und Forschungsstrategie interessieren die großen international organisierten Online-Datenbanken primär als Instrumente für die Analyse der weltweit bereits gewonnenen und der ständig neu hinzukommenden wissenschaftlichen Erkenntnisse. Es ist technisch möglich geworden, die Gesamtheit der für das jeweils betrachtete Sachgebiet größten und wichtigsten Online-Datenbanken wie eine einzige Datenbank zu behandeln und das in den einzelnen Datenbanken nachgewiesene Weltwissen als geschlossenen Komplex zu analysieren mit dem Ziel, hochrelevante verdichtete Hinweise auf die im internationalen Raum ablaufenden Forschungs- und Entwicklungsprozesse zu erhalten. Datenbankhosts, die dieser Funktion gerecht werden können, bleiben daher als Anbieter der Online- Datenbanken auch weiterhin unverzichtbar.
OCR : Texterkennungssoftware
(2000)
In der Rezension wird darauf verwiesen, wie mit EDV-gestützten Methoden Quellengruppen besser erschlossen und neue Erkenntnisse gewonnen werden können. Herr Kamke, der Autor des zu rezensierenden Buches, stellt wichtige Einsichten zur Entstehung und Entwicklung agrarischer Strukturen zwischen Havel und Oder zur Diskussion, auf deren Grundlage eine systematische Analyse fortgesetzt werden kann.
Eine Betrachtung zu den Barrieren der Nutzung elektronischer wissenschaftlicher Informationen in der Hochschulausbildung. Es wird auf die Bedeutung der grossen weltweit organisierten Online-Datenbanken für die studentische Ausbildung aufmerksam gemacht. Ursachen der völlig ungenügenden Nutzung dieser Wissensquellen liegen im Management der Einrichtungen, dem nicht selten mangelnde Kenntnis dieser Quellen und ein daraus resultierender Unwille zur zielgerichteten, breiten Ausschöpfung des Potentials der Online-Datenbanken vorgeworfen werden muß. Ein Beispiel hierfür liefert die Universität Potsdam, wo nach erfolgreichen Schulungsmassnahmen der Jahre 1992-1994 die Tätigkeit eines Schulungszentrums für Online-Datenbanknutzung wieder eingestellt wurde.
Die Proceedings enthalten die Beiträge zur 7. Konferenz der SAS-Anwender in Forschung und Entwicklung (KSFE), die vom 20. bis 21. Februar 2003 von der Zentralen Einrichtung für Informationsverarbeitung und Kommunikation (ZEIK) und dem Fachbereich Mathematische Statistik der Universität Potsdam ausgerichtet wurde. Mit dem Themenschwerpunkt "Data Mining & Statistik in Hochschule und Wirtschaft" informierte die Konferenz über das aktuelle Forschungsgeschehen an deutschen Hochschulen und die Weiterentwicklungen im Bereich Datenmanagement und Datenanalyse. Neueste Entwicklungen in den Bereichen Data Mining, Statistik und Datenmanagement wurden vorgestellt, so z.B. der neuen SAS Enterprise Miner mit seiner Text-Mining-Technologie. Die nunmehr zum 7. Mal durchgeführte Konferenz versteht sich als Forum für den interdisziplinären Austausch zwischen Hochschulen und Unternehmen.
Den Ausbau gestalten
(2019)
Mit RISE-DE liegt als FDMentor-Projektergebnis ein Referenzmodell für Strategieprozesse im institutionellen Forschungsdatenmanagement (FDM) vor. RISE-DE bietet einen Bewertungsrahmen zur Selbstevaluation und Zielbestimmung und eignet sich als Werkzeug zur Gestaltung einer strukturierten, Stakeholder-orientierten Strategieentwicklung für das FDM an Hochschulen und Forschungseinrichtungen.
RISE-DE basiert auf dem lose an Reifegradenmodellen orientierten Research Infrastructure Self-Evaluation Framework (RISE v1.1) des Digital Curation Centre (DCC), wurde aber für den Einsatz in partizipativen Prozessen deutlich überarbeitet sowie inhaltlich an den deutschen Wissenschaftskontext und Entwicklungen in der guten Praxis im FDM angepasst. Eine mit Hilfe von RISE-DE erarbeitete Strategie erfüllt zugleich die von der Hochschulrektorenkonferenz (HRK) und der League of European Research Universities (LERU) formulierten Empfehlungen.
Die hier vorliegende RISE-DE Version 1.0 nimmt Erfahrungen aus dem Piloteinsatz an der Universität Potsdam sowie Feedback aus der Community auf. Es beinhaltet gegenüber der Vorversion zum einen Veränderungen an den Themen des Referenzmodells, zum anderen wurden Empfehlungen für FDM-Beginner deutlich erweitert und Erläuterungen für die Durchführung partizipativer Strategieprozesse hinzugefügt. In Zusammenarbeit mit der Hochschule für Angewandte Wissenschaften Hamburg entstand außerdem ein digitales Evaluations-Tool.
Mit RISE-DE liegt als FDMentor-Projektergebnis ein Referenzmodell für Strategieprozesse im institutionellen Forschungsdatenmanagement vor. RISE-DE bietet einen Bewertungsrahmen zur Selbstevaluation und Zielbestimmung und eignet sich als Werkzeug zur Gestaltung einer strukturierten, Stakeholder-orientierten Strategieentwicklung für das Forschungsdatenmanagement an Hochschulen und Forschungseinrichtungen.
RISE-DE basiert auf dem lose an Reifegradenmodellen orientierten RISE-Framework des DCC (RISE v1.1), wurde aber für den Einsatz in partizipativen Prozessen deutlich überarbeitet sowie inhaltlich an den deutschen Wissenschaftskontext und Entwicklungen in der guten Praxis im FDM angepasst. Ein mit Hilfe von RISE-DE erarbeitete Strategie erfüllt zugleich die von der Hochschulrektorenkonferenz und der League of European Research Universities formulierten Anforderungen.
Die große Bedeutung der Informationstechnologie für die Wissenschaftsdisziplinen und die zentralen Infrastruktureinrichtungen der Hochschulen steht heutzutage außer Frage. Der Beitrag liefert einen historischen Überblick über die Einführung und Weiterentwicklung der IT in deutschen Hochschulen von den 1950er-Jahren bis heute, wobei der Fokus auf den Bibliotheken und Rechenzentren liegt. Es zeigt sich, dass die verschiedenen Phasen der Technologieentwicklung zu heterogenen IT-Organisationsstrukturen in den Hochschulen geführt haben. DFG und HRK empfehlen daher seit 20 Jahren die Klärung der Verantwortlichkeiten im Rahmen einer IT-Governance sowie die Implementierung eines CIO-Modells. Wie verschiedene Studien zeigen, ist die Umsetzung in der deutschen Hochschullandschaft bislang jedoch nur in Teilen gelungen. Die Herausforderung an vielen Hochschulen besteht nach wie vor darin, die IT-Organisation aus ihrer reaktiven Rolle zu befreien und zu einem aktiven Treiber der digitalen Transformation umzubauen.