Abgeschlossene Projekte

Semantisches Datenqualitätsmanagement

Das "Data Quality Mining" nutzt maschinelle Lernalgorithmen und statistische Auswertungsverfahren aus dem Data Mining Kontext, um fehlerbehaftete Daten in Datenhaltungen aufzudecken. Um in diesem Prozess so wenig menschliche Entscheidungen wie möglich zu involvieren, wird eine Metaebene in Form einer Ontologie etabliert, die zum einen eine konzeptuelle Sicht auf die Daten (und damit von der konkreten technischen Implementierung der Datenhaltung abstrahiert) und zum anderen Metadatenannotation an die qualitätszusichernden Konzepte und Daten ermöglicht.

Einsatzplanung dezentraler Energieerzeuger

Die Liberalisierung führt zu einer stärkeren Spezialisierung auf einzelne Aufgaben der Energiewirtschaft, wie Kraftwerksbetrieb, Energiehandel oder Netzbetrieb. Diese Veränderung und die steigende Zahl dezentraler Erzeugungseinheiten erfordern neue, effiziente Prozesse und Algorithmen für die Einsatzplanung von Erzeugungsanlagen. Durch die Veränderungen hat sich die Bandbreite der mit der Einsatzplanung verbundenen Ziele stark erweitert. Sie reichen von dem Ziel produzierte Energie am Markt zu verkaufen, über die Steuerung der Anlagen zum Ausgleich von Schwankungen bei der Windenergieproduktion bis hin zum gezielten Einschalten von Anlagen zu Vermeidung von Energiebezugsspitzen in Teilnetzen.

WindStream

Ziel des Projektes ist die Erforschung datenstrombasierter Techniken zur zentralen Überwachung von Windenergieanlagen/Windparks

AMPA - Agent-based Multi-Site Planning and Scheduling Application Framework

Ziel des Projekts AMPA (Agent-based Multi-Site Planning and Scheduling Application Framework) ist die Entwicklung eines agenten-basierten, plattformunabhängigen Systems zur verteilten Planung von Produktion, Transport und Lagerhaltung in einer dynamisch veränderlichen Planungsumgebung.

CELab - Content-Engineering Labor

Das Hauptziel des Labors für Content Engineering besteht in der Schaffung eines Kompetenz­zentrums für sämtliche Aspekte der Content-Erstellung und des Content-Managements im Bereich des eLearning.

CLIQ - Data Cleansing mit intelligentem Qualitätsmanagement

Im Rahmen des CLIQ-Projektes (CLIQ = data CLeansing mit Intelligentem Qualitätsmanagement) entwickeln wir Lösungen für Probleme und Herausforderungen im Kontext der Datenqualität. Das Kernziel von CLIQ ist es, ein Software-Werkzeug zum Datenqualitätsmanagement zu entwerfen und zu implementieren, welches auf einer formalen Modellierung des Konzeptes "Datenqualität" und einem wohldefinierten Vorgehensmodell basiert. Die umfassende Nutzung von Metadaten ermöglicht eine flexible Anpassung an verschiedene Applikationsdomänen und einen maximalen Grad der Automatisierung des Qualitätsmanagementprozesses.

COMMA

Im Projekt COMMA wird eine Entwicklungsmethodik für interaktive kooperative Anwendungen erarbeitet. Dabei wird besonderer Wert auf die Unterstützung von Mehrbenutzer-Interaktionen gelegt.

CWB - Conversion WorkBench

Ziel des Projektes Conversion WorkBench ist die Zusammenstellung bzw. Entwicklung einer Workbench für die Dokumentenkonvertierung.

DynaQuest - Dynamische und adaptive Anfrageverarbeitung in Virtuellen Datenbanksystemen

Das Ziel des Forschungsprojekts DynaQuest (Dynamische und adaptive Anfrageverarbeitung für virtuelle Informationssysteme) ist die Entwicklung von Konzepten und Verfahren, die eine effiziente Anfrageverabeitung im Kontext von Virtuellen Informationssystemen ermöglichen.

eVerlage - Die elektronische Bibliothek

Das eVerlage-System ist die digitale Bibliothek der deutschen Wissenschaftsverlage.

FliDA - Data Analysis to Support the Assessment and Diagnosis of Man/Machine Interactions

In FliDA wird ein datengetriebener Zugang zur Realisierung von Assistenzsystemen für Lehr-/Lernanwendungen in virtuellen Realitäten untersucht. Hierzu werden Konzepte solcher Lehr-/Lernanwendungen untersucht, es werden damit verbundene Probleme analysiert und schließlich eine auf der Agenten-Metapher beruhende Architektur eines Assistenzsystems für solcher Lehr-/Lernsysteme entwickelt. Agenten behandeln darin tutorielle Aufgaben sowie Aufgaben zur Bildung/Festigung virtueller Lerngemeinschaften im Internet.

GERHARD - German Harvest Automated Retrieval and Directory

Nachweissystem von auf deutschen Servern liegenden Informationsressourcen, die automatisch gesammelt, klassifiziert und indexiert werden.

GERHARD II - GERman Harvest Automated Retrieval and Directory II

Bei der Realisierung von GERHARD und im laufenden Betrieb des Dienstes seit April 1998 entstanden eine Reihe von Ideen zur Verbesserung des Systems, die in einer zweiten Projektphase realisiert werden sollen. Dazu gehören ein effizienteres Sammeln der Dokumente mit einer qualitativen Auswahl, die Verbesserung der Klassifikation und die Verbesserung und Funktionserweiterung der Benutzung.

i-EpiSim-2 - Integration von Modellbildung/Simulation und Knowledge Discovery in Databases

In i-EpiSim-2 wird die integrierte Anwendung von Methoden der Modellbildung und Simulation sowie des Knowledge Discovery in Databases untersucht. Die Umweltepidemiologie wird in diesem Projekt als Anwendungsgebiet betrachtet, wobei insbesondere die simulative Expositionsabschätzung und Analyse von zeitlich strukturierten Expositionsdaten fokussiert wird.

InterDoc - Erprobung elektronischer Angebotsformen, Abrechnungsmodelle und Zahlungsverfahren auf einer Testplattform fuer Global Info

Technologie und Infrastruktur des MeDoc-Dienstes sowie die bisher konvertierten Werke (Bücher und Zeitschriften) in Global Info einbringen und durch die Nutzer anderer, nicht an MeDoc beteiligter Fachrichtungen, evaluieren und mit alternativen Werkzeugen vergleichen lassen.

KOSOBAR - Komponentenbasierte Softwareentwicklung auf Basis von Referenzmodellen

Das Projekt KOSOBAR soll die Grundideen von Softwarereferenzmodellen und komponentenbasierten Anwendungssystemen verbinden.

LEBONED - Learning Environment Based on Non Educational Digital Libraries

Ziel des Projekts ist es, Inhalte von digitalen Bibliotheken, die keinen direkten Bezug zu elektronischen Lernplattformen aufweisen, für Lernzwecke nutzbar zu machen. Hierfür sollen Methoden und Infrastrukturen geschaffen werden, die es erlauben, digitale Bibliotheken zu integrieren und deren Inhalte für Lernzwecke aufzuwerten.

MINTAL - Multidimensional INTelligent Access modeL

Das Ziel des Forschungsprojekts MINTAL (Multidimensional INTelligent Access modeL) ist, in Verbindung mit dem EKN Projekt, die Entwicklung einer adäquaten DBS--Unterstützung mehrdimensionaler explorativer Datenanalysen, um die Kooperationsfähigkeit von DBS mit Visualierungs- und Analyse--Tools zu verbessern. Aspeke der Datenunabhängigkeit, der Erweiterbarkeit sowie der Vermeidung von Insellösungen prägen das Projekt MINTAL, welches einen hybriden OLAP--Ansatz verfolgt. Eine Client--Server--Architektur auf Basis eines ORDBMS dient als Basis zur Modellierung mehrdimensionaler Daten, zum intelligenten Zugriff und zur Einbettung eines Konzeptes zur semantischen Anfrageverarbeitung in eine solche integrative/adaptive DBS Architektur für ein Datenanalyse--Framework.

MUST- Multi-Site Scheduling System

Im Projekt MUST (Multi-Site Scheduling System) wird ein verteiltes System zur Ablaufplanung bei einer über mehrere Produktionsstandorte verteilten Produktion entwickelt.

ODAWA - OFFIS Tools for Data Warehousing

Im Rahmen des Projektes ODAWA (OFFIS Tools for Data Warehousing) wird ein Framework zum Design von Data Warehouses entwickelt. Dabei sollen einerseits in der Entwicklung konventioneller Datenbanken bewährte Konzepte übernommen werden, andererseits aber auch spezielle Aspekte des multidimensionalen Datenmodells und von Data Warehouses berücksichtigt werden. Der gesamte Prozess soll durch eine durchgängige Werkzeugunterstützung begleitet werden.

Ontologiebasierte Modellierung von Studiengängen

Ontologiebasierte Modellierung von Studiengängen

Process Mining

Im Projekt Process Mining werden Methoden zur Extraktion von Prozessschemata aus ereignisbasierten Daten entwickelt.

SSWB - Scheduling Systems Workbench

Im Projekt Scheduling Systems Workbench (SSWB) wird ein System entwickelt, das die Erstellung hybrider Ablaufplanungssysteme durchgängig über alle Software Engineering-Phasen unterstützen soll.

TODAY - Toolsuite for Managing a Data Warehouse's Data Supply

Im Rahmen des Projektes TODAY (Toolsuite for Managing a Data Warehouse's Data Supply) entwickeln wir ein Framework, das die Modellierung und Ausführung der Datenbewirtschaftung für Data-Warehouse-Systeme auf Basis eines Zwei-Ebenen-Entwurfs ermöglicht. Ziel des Frameworks ist die Erhöhung der Wartbarkeit und Verständlichkeit von Datenbewirtschaftungsprozessen durch den Einsatz einer werkzeugunabhängigen, durchgängig metadatengestützten Modellierung.

VIRTLAB

Im von der Deutschen Forschungsgemeinschaft geförderten Projekt "VirtLab" entwickelt OFFIS seit September 2000 softwaretechnische Konzepte, die die Entwicklung virtuelle Praktika quantitativ und qualitativ verbessern sollen.