Themen:

Viele Aufgabenstellungen beschäftigen sich mit der Implementierung verschiedener Komponenten in eines der Websysteme die am Fachgebiet betrieben werden oder mit der Analyse der in solchen System vorhandenen Daten. Darüber hinaus werden weitere Themen angeboten, die in der Regel einen inhaltlichen Bezug zu aktuellen Forschungsprojekten des Fachgebiets Wissensverarbeitung haben.

Die Themenstellung erfolgt in Absprache mit dem Studierenden; die Ausrichtung und der Umfang der Arbeit richtet sich nach dem jeweils angestrebten Anschluss. Prinzipiell liegt der Schwerpunkt bei Abschlussarbeiten auf der Methodik, während er bei Projektarbeiten auf der technischen Umsetzung liegt.

Zu folgenden Themengebieten können wir Arbeiten anbieten; zu konkreten Themen können die jeweiligen Betreuer genauere Auskunft geben.

(M = methodischer Schwerpunkt, T = technischer Schwerpunkt)

Integration eines Content Management Systems T 

Content Management Systeme (CMS) unterstützen die gemeinschaftliche Arbeit an Inhalten und werden häufig für die Erstellung von Webseiten eingesetzt. Eines der bekanntesten CMS ist TYPO3, das jedoch aufgrund seines großen Funktionsumfangs hohe Anforderungen an die Einarbeitung stellt. Neuere CMS wie NEOS sind leichtgewichtig und sprechen durch ihre intuitive Bedienung eine Vielzahl von Benutzern an.

Im Rahmen des Projektes sind mehrere Aufgaben zu erfüllen:

  • Installation und Konfiguration des CMS
  • Entwicklung einer Migrationsstrategie für den Umzug einer bestehenden Webseite auf das CMS
  • Verbesserung der Workflows in der täglichen Arbeit mit dieser Webseite (z.B. einheitliche Darstellung von Inhalten mittels Templates)
  • Implementierung von Modulen für die Anbindung von Daten aus anderen Systemen

Voraussetzung für die Bearbeitung dieses Projekts sind Kenntnisse in der Webentwicklung mit PHP, HTML und CSS. Idealerweise besteht bereits Erfahrung im Umgang mit einem CMS.

Informationen: Andreas Schmidt

Vergleich von Anomaly Detection-Verfahren T,M 

Anomaly Detection bezeichnet das Finden von Mustern in Daten, die stark von der gewöhnlichen Verteilung abweichen. Klassische Anwendungsgebiete sind beispielsweise die Betrugserkennung oder auch die Entdeckung von Ereignissen in Sensor-Daten.

In der Literatur werden verschiedene Verfahren beschrieben, mit denen diese Anomalien erkannt werden können. Im Rahmen des Projektes sollen einige dieser Verfahren ausgewählt und exemplarisch an einem Beispieldatensatz evaluiert werden.

Informationen: Andreas Schmidt

Big Data in der Praxis  T,M 

Charakteristische Eigenschaften von Big Data sind u.a. ein großes Datenvolumen und eine hohe Geschwindigkeit mit der neue Daten entstehen. Dies stellt besondere Anforderungen an Algorithmen, da beispielsweise nicht alle Daten im Speicher gehalten werden können.

Im Rahmen des Projektes sind verschiedene Aufgabenstellungen möglich. Zum Einen können Algorithmen aus den Bereichen Machine Learning und Information Retrieval mittels Big Data-Frameworks umgesetzt werden. Darüber hinaus ist es auch möglich, bereits implementierte Algorithmen auf ein konkretes Machine Learning-Problem anzuwenden.

Für die Durchführung des Projektes sind grundlegende Kenntnisse im Umgang mit Unix erforderlich. Idealerweise besteht bereits Erfahrung mit Machine Learning und MapReduce.

Informationen: Andreas Schmidt

Auswertung der RFID-Daten und ihrer Qualität  T,M 

Die vom SocioPatterns Konsortium entwickelte RFID-Technologie ermöglicht die Lokalisierung von Menschen sowie die Bereitstellung von Informationen über deren soziale Kontakte. Die Daten sind aber nicht immer vollständig. Dies kann mehrere Gründe haben: Distanz zum RFID-Reader, hohe Luftfeuchtigkeit, etc.

Ziel dieser Arbeit ist die Auswertung der vorliegenden RFID-Daten anhand gegebener Fotos (wo soziale Interaktionen aufgezeichnet sind) und eine qualitative Bewertung der mittels RFID aufgezeichneten Kontakte.

Informationen: Mark Kibanov

Erzeugung und Analyse von bipartiten Graph-Modellen T,M

Zur Analyse von Netzwerken werden sehr oft Graphen herangezogen. Eine spezielle Klasse stellen hierbei die bipartiten Graphen dar. Die Knotenmenge eines solchen besteht aus zwei disjunkten Mengen und die zugehörige Kantenrelation enthält nur Kanten, die Knoten der einen mit Knoten der anderen Menge verbinden. Zum Beispiel läßt sich die Relation zwischen Schauspielern und deren Filmen als bipartiter Graph auffassen. Generiert man solche Graphen (naiv) zufällig, so weichen diese stark von aus echten Daten erhaltenen ab. In [1] wird ein Verfahren zur Erzeugung von bipartiten Graphen vorgestellt, welches dafür besser geeignet ist.

Ziele des Projektes seien die folgenden:

  • Vergleich von naiv zufällig erzeugten Graphen mit echten Daten anhand der in [1] als signifikant herausgestellten Größen.
  • Formalisieren und implementieren der zwei in [1] vorgestellten Algorithmen zur Erzeugung bipartiter Graphen.
  • Vergleich der mittels der Algorithmen erzeugten Graphen mit aus echten Daten erhaltenen.

Die Ausarbeitung, d.h. die Formalisierung der Algorithmen sowie die Darstellung und der Vergleich der Messergebnis, sollte möglichst in LaTeX erstellt werden. Die Implementierung sollte in einer der folgenden Programmiersprachen geschehen: C/C++, Java, Python, GNU R.

[1] “Bipartite Graphs as Models of Complex Networks”, Jean-Loup Guillaume and Matthieu Latapy

Informationen: Tom Hanika

Aufgabenstellung und Termin:

nach Absprache mit dem jeweiligen Betreuer

Vorkenntnisse:

Informatik Grundstudium bzw. 30 absolvierte Credits des Masterstudiums

Angesprochener Teilnehmerkreis:

Bachelor-, Diplom- und Masterstudierende Informatik, Math. NF Inf. Hauptstudium

Leistungsnachweis:

in der Regel Implementierung, schriftliche Ausarbeitung und Vortrag

Umfang:

9 Wochen für Bachelor, 3 Monate für Diplom I und 6 Monate für Master und Diplom II

Veranstalter:

Prof. Dr. Gerd Stumme, PD Dr. Martin Atzmüller, Dipl.-Math. Tom Hanika, Dipl.-Inform. Mark Kibanov, Master Inform. Juergen Mueller, Master Inform. Andreas Schmidt