Institut für Informatik und Computational Science
Refine
Has Fulltext
- no (133) (remove)
Year of publication
Document Type
- Monograph/Edited Volume (133) (remove)
Is part of the Bibliography
- yes (133)
Institute
An introduction to audio content analysis : applications in signal processing and music informatics
(2012)
Denken in Services ist der Schlüssel zu einer gemeinsamen Sicht für IT Experten, Business Experten und Manager auf bestehende und entstehende Anwendungen und damit zu einer engeren Zusammenarbeit, die heutige Arbeitsabläufe revolutionieren kann: Auf der Service-Ebene ist es erstmals möglich, Fachexperten kontinuierlich während des gesamten Lebens-zyklus einer Anwendung einzubinden. Ihren Ursprung hat die service- orientierte Denkweise in der Telekommunikation, wo sie die Grundlage der modernsten Anwendungen für mobile und feste Plattformen war, insbesondere der so genannten Mehrwertdienste, wie Televoting, Freephone (die 0800 Nummern), Virtual Private Network. Nur durch die für die service-orientierung charakteristische konsequente Virtualisierung der Infrastrukturen und die lose Kopplung der Funktionalitäten war es möglich, die hochgradig heterogene Landschaft der Telefonie zu beherrschen. Dieselben Prinzipien sind aber viel allgemeiner anwendbar, zum Beispiel auch für Dienste in weniger technischen Geschäftsbereichen wie e-commerce, Logistik, Gesundheitswesen oder Verwaltung. Ihre konsequente Umsetzung als neues Paradigma für die Konzeption, den Entwurf und das Management komplexer Anwendungen hat das Potential, der Gesellschaft eine neue Generation personalisierter, sicherer, hochverfügbarer und effizienter (Internet-) Dienstleistungen zu bescheren. Damit werden viele Geschäftsbereiche revolutioniert, ähnlich wie bereits die Email in vielen Bereichen die klassische Kommunikation per Post revolutioniert hat.
Didaktik der Informatik
(2011)
Die Informatik durchdringt zusehends fast alle Bereiche der Ausbildung und der Berufswelt. Die Stichwörter berücksichtigen die Geschichte der Informatik und den heutigen Stand ihrer Methoden und beziehen aktuelle und absehbare Entwicklungen mit ein. Das ausführliche Register sorgt dafür, dass man den gewünschten Begriff sofort im Blick hat. Rund 3 000 Stichwörter, etwa 700 Abbildungen, Register.
eAssessment im Testcenter der Universität Bremen : Forum eLearning : Sonderveranstaltung 2010-05-27
(2010)
Efficient deterministic approaches solving the general layout problem in graphs : Forschungsbericht
(1996)
Ein konstruktivistischer Lehransatz für die Einführungsveranstaltung der Theoretische Informatik
(2013)
Rechnerarchitekten sind ständig bemüht, die besten Rechner für die Lösungen alltäglicher Probleme zu entwickeln. Als Maß für die Qualität der eingesetzten Verfahren gelten die Flexibilität und die Performanz. Während die Flexibilität die Fähigkeit einer Architektur für den Einsatz einer breiten Palette von Anwendungen misst, gibt die Performanz an, wie leistungsfähig ein Rechner ist. In dieser Vorlesung wird ein neues Rechenparadigma vorgestellt, das die zwei bis jetzt als Gegensätze betrachteten Qualitätsmaße Flexibilität und Performanz, in einer Architektur kombiniert.
GeneFisher-P
(2007)
Tagungsband vom 2. Workshop GML² 2005 Dem Lernen und Lehren mit Neuen Medien werden in Zeiten der Informationsgesellschaft oft sagenhafte Eigenschaften zugeschrieben: es sei anschaulicher, attraktiver, motivierender, effizienter, kostengünstiger, gehe besser auf den Lernenden ein, steigere den Lernerfolg, orientiere sich mehr an den kognitiven Strukturen von Lernenden etc.. Damit wenigstens einige der genannten Vorteile wirksam werden, sind geeignete didaktische und methodische Modelle und Konzepte unverzichtbar. Hinzu kommen detaillierte Kenntnisse in der Gestaltung von Lernoberflächen, der technischen Realisierung von Lerninhalten, dem Aufbau lernförderlicher Strukturen und Betreuungskonzepte und dem Betrieb von teilweise virtuellen Universitäten. Inwieweit gesteckte Ziele erreicht wurden, ist anhand von Evaluationsmaßnahmen zu ermitteln. Sämtliche Aspekte müssen bereits in die Planung entsprechender Angebote einbezogen werden.
Grundlagen digitaler Systeme
(2005)
Grundlagen digitaler Systeme
(2000)
Grundlagen digitaler Systeme
(2001)
Sowohl in kommerziellen als auch in wissenschaftlichen Datenbanken sind Daten von niedriger Qualität allgegenwärtig. Das kann zu erheblichen wirtschaftlichen Problemen führen", erläutert der 35-jährige Informatik-Professor und verweist zum Beispiel auf Duplikate. Diese können entstehen, wenn in Unternehmen verschiedene Kundendatenbestände zusammengefügt werden, aber die Integration mehrere Datensätze des gleichen Kunden hinterlässt. "Solche doppelten Einträge zu finden, ist aus zwei Gründen schwierig: Zum einen ist die Menge der Daten oft sehr groß, zum anderen können sich Einträge über die gleiche Person leicht unterscheiden", beschreibt Prof. Naumann häufig auftretende Probleme. In seiner Antrittsvorlesung will er zwei Lösungswege vorstellen: Erstens die Definition geeigneter Ähnlichkeitsmaße und zweitens die Nutzung von Algorithmen, die es vermeiden, jeden Datensatz mit jedem anderen zu vergleichen. Außerdem soll es um grundlegende Aspekte der Verständlichkeit, Objektivität, Vollständigkeit und Fehlerhaftigkeit von Daten gehen.
Introductory Bioinformatics
(2009)
Maximal solid codes
(1999)
PCG-Agreement Dokument
(2004)
Proceedings of the 2nd International Workshop on e-learning and Virtual and Remote Laboratories
(2008)
This book presents an agile and model-driven approach to manage scientific workflows. The approach is based on the Extreme Model Driven Design (XMDD) paradigm and aims at simplifying and automating the complex data analysis processes carried out by scientists in their day-to-day work. Besides documenting the impact the workflow modeling might have on the work of natural scientists, this book serves three major purposes: 1. It acts as a primer for practitioners who are interested to learn how to think in terms of services and workflows when facing domain-specific scientific processes. 2. It provides interesting material for readers already familiar with this kind of tools, because it introduces systematically both the technologies used in each case study and the basic concepts behind them. 3. As the addressed thematic field becomes increasingly relevant for lectures in both computer science and experimental sciences, it also provides helpful material for teachers that plan similar courses.
Schülerduden, Informatik
(1997)
Seminarband: Sensornetze
(2004)