Skip to main content

Vision des Berlin Big Data Center

Erforschung und Entwicklung von Methoden und Technologien für Data Science an der Schnittstelle von Datenmanagement und Maschinellem Lernen.

Der wissenschaftliche Kernbereich des BBDC ist durch die deklarative Spezifikation sowie automatische Optimierung, Parallelisierung und Hardwareadaption von fortgeschrittenen Verfahren des Maschinellen Lernens gekennzeichnet.

Dies bedeutet, dass im BBDC Algorithmen des maschinellen Lernens im Hinblick auf Skalierbarkeit entwickelt und deklarativ spezifiziert werden. Hierdurch werden die bisher getrennt nebeneinander existierenden Forschungsgebiete des Maschinellen Lernens und des Datenmanagements zur skalierbaren Datenanalyse verschmolzen.

Machinelles Learning

In ersten Schritten hat sich gezeigt, dass massive Parallelisierung für manche Lernmethoden ein geeigneter Weg ist. Ebenfalls vielversprechend sind Ansätze, die direkt  von einem Online-Lernsetting ausgehen, bei dem die Daten als Strom verarbeitet werden.

WEITERLESEN

Datenmanagement

Wir werden die Erstellung von Datenanalyseprogrammen drastisch vereinfachen, den Kreis der Personen, die Analysen auf Big Data durchführen können drastisch erhöhen und damit die Kosten für die Erstellung von komplexen Analysen auf Big Data drastisch reduzieren.

WEITERLESEN

Skalierbare Datenanalyse

Um die Analyse von großen Mengen heterogener Daten mit komplexen Verfahren des Maschinellen Lernens zu ermöglichen, müssen wir bestehende Modelle um die Konzepte der geordneten Kollektionen,  Multidimensionalität sowie im Hinblick auf den Zugriff auf einen verteilten Zustand innerhalb und zwischen den Ausführungsschritten von iterativen Algorithmen erweitern

WEITERLESEN

"Des Weiteren gilt es ein  hoch-skalierbares Open-Source-System zu entwickeln, welches in der Lage ist die automatische Optimierung, Parallelisierung und Hardwareadaption sowie die fehlertolerante, effiziente Ausführung der deklarativ spezifizierten Datenanalysemethoden durchzuführen.