Dieses Projekt lässt sich als Projekt Web 2.0 im Bachelor und als Projekt Wissensverarbeitung im Master anrechnen.

Projektvorbesprechung: Montag, 19.10.2015, 16.15 Uhr in Raum 0445/E. Bei Interesse können Sie auch gerne vorab den jeweiligen Betreuer ansprechen.

Themen:

Jeder Teilnehmer des Projektes bearbeitet eine individuelle Aufgabe im Umfeld unseres kooperativen Verschlagwortungssystems BibSonomy, der ubiquitären Plattform Ubicon oder dem Namensuchportal Nameling.

 Unter anderem stehen die folgenden Themen zur Auswahl:

(M = methodischer Schwerpunkt, T = technischer Schwerpunkt)

Integration eines Content Management Systems T

Content Management Systeme (CMS) unterstützen die gemeinschaftliche Arbeit an Inhalten und werden häufig für die Erstellung von Webseiten eingesetzt. Eines der bekanntesten CMS ist TYPO3, das jedoch aufgrund seines großen Funktionsumfangs hohe Anforderungen an die Einarbeitung stellt. Neuere CMS wie NEOS sind leichtgewichtig und sprechen durch ihre intuitive Bedienung eine Vielzahl von Benutzern an.

Im Rahmen des Projektes sind mehrere Aufgaben zu erfüllen:

  • Installation und Konfiguration des CMS
  • Entwicklung einer Migrationsstrategie für den Umzug einer bestehenden Webseite auf das CMS
  • Verbesserung der Workflows in der täglichen Arbeit mit dieser Webseite (z.B. einheitliche Darstellung von Inhalten mittels Templates)
  • Implementierung von Modulen für die Anbindung von Daten aus anderen Systemen

Voraussetzung für die Bearbeitung dieses Projekts sind Kenntnisse in der Webentwicklung mit PHP, HTML und CSS. Idealerweise besteht bereits Erfahrung im Umgang mit einem CMS.

Informationen: Andreas Schmidt

Vergleich von Anomaly Detection-Verfahren T,M

Anomaly Detection bezeichnet das Finden von Mustern in Daten, die stark von der gewöhnlichen Verteilung abweichen. Klassische Anwendungsgebiete sind beispielsweise die Betrugserkennung oder auch die Entdeckung von Ereignissen in Sensor-Daten.

In der Literatur werden verschiedene Verfahren beschrieben, mit denen diese Anomalien erkannt werden können. Im Rahmen des Projektes sollen einige dieser Verfahren ausgewählt und exemplarisch an einem Beispieldatensatz evaluiert werden.

Informationen: Andreas Schmidt

Big Data in der Praxis T,M

Charakteristische Eigenschaften von Big Data sind u.a. ein großes Datenvolumen und eine hohe Geschwindigkeit mit der neue Daten entstehen. Dies stellt besondere Anforderungen an Algorithmen, da beispielsweise nicht alle Daten im Speicher gehalten werden können.

Im Rahmen des Projektes sind verschiedene Aufgabenstellungen möglich. Zum Einen können Algorithmen aus den Bereichen Machine Learning und Information Retrieval mittels Big Data-Frameworks umgesetzt werden. Darüber hinaus ist es auch möglich, bereits implementierte Algorithmen auf ein konkretes Machine Learning-Problem anzuwenden.

Für die Durchführung des Projektes sind grundlegende Kenntnisse im Umgang mit Unix erforderlich. Idealerweise besteht bereits Erfahrung mit Machine Learning und MapReduce.

Informationen: Andreas Schmidt

Auswertung der RFID-Daten und ihrer Qualität T,M

Die vom SocioPatterns Konsortium entwickelte RFID-Technologie ermöglicht die Lokalisierung von Menschen sowie die Bereitstellung von Informationen über deren soziale Kontakte. Die Daten sind aber nicht immer vollständig. Dies kann mehrere Gründe haben: Distanz zum RFID-Reader, hohe Luftfeuchtigkeit, etc.

Ziel dieser Arbeit ist die Auswertung der vorliegenden RFID-Daten anhand gegebener Fotos (wo soziale Interaktionen aufgezeichnet sind) und eine qualitative Bewertung der mittels RFID aufgezeichneten Kontakte.

Informationen: Mark Kibanov

Erzeugung und Analyse von bipartiten Graph-Modellen T,M

Zur Analyse von Netzwerken werden sehr oft Graphen herangezogen. Eine spezielle Klasse stellen hierbei die bipartiten Graphen dar. Die Knotenmenge eines solchen besteht aus zwei disjunkten Mengen und die zugehörige Kantenrelation enthält nur Kanten, die Knoten der einen mit Knoten der anderen Menge verbinden. Zum Beispiel läßt sich die Relation zwischen Schauspielern und deren Filmen als bipartiter Graph auffassen. Generiert man solche Graphen (naiv) zufällig, so weichen diese stark von aus echten Daten erhaltenen ab. In [1] wird ein Verfahren zur Erzeugung von bipartiten Graphen vorgestellt, welches dafür besser geeignet ist.

Ziele des Projektes seien die folgenden:

  • Vergleich von naiv zufällig erzeugten Graphen mit echten Daten anhand der in [1] als signifikant herausgestellten Größen.
  • Formalisieren und implementieren der zwei in [1] vorgestellten Algorithmen zur Erzeugung bipartiter Graphen.
  • Vergleich der mittels der Algorithmen erzeugten Graphen mit aus echten Daten erhaltenen.

Die Ausarbeitung, d.h. die Formalisierung der Algorithmen sowie die Darstellung und der Vergleich der Messergebnis, sollte möglichst in LaTeX erstellt werden. Die Implementierung sollte in einer der folgenden Programmiersprachen geschehen: C/C++, Java, Python, GNU R.

[1] “Bipartite Graphs as Models of Complex Networks”, Jean-Loup Guillaume and Matthieu Latapy

Informationen: Tom Hanika

Aufgabenstellung und Termin:

Nach Absprache mit dem jeweiligen Betreuer. Je nach Thema kann die Aufgabe in Kleingruppen oder einzeln bearbeitet werden.

Vorkenntnisse:

Informatik Grundstudium

Angesprochener HörerInnenkreis:

Inf. Hauptstudium Bachelor und Diplom I, Master, Math. NF Inf. Hauptstudium

Umfang:

4 oder 8 SWS im Bachelor und Diplom I nach Absprache, 4 SWS im Master

Leistungsnachweis:

Implementierung, schriftliche Ausarbeitung und zwei Vorträge

Veranstalter:

Prof. Dr. Gerd Stumme, PD Dr. Martin Atzmüller, Dipl.-Math. Tom Hanika, Dipl.-Inform. Mark Kibanov, Master Inform. Juergen Mueller, Master Inform. Andreas Schmidt

Ablauf:

In der Regel sollte die Projektarbeit mit Semesterbeginn begonnen werden. Nach 4-6 Wochen findet eine Zwischenpräsentation statt, in der der Stand der Projektarbeit vorgestellt wird. In der Regel in der ersten Vorlesungswoche des folgenden Semesters werden dann die Endergebnisse vorgestellt. Eine kurze Beschreibung der Arbeit (5 Seiten) ist 3 Tage vor dem Vortrag einzureichen.

Eine Woche nach der Annahme des Themas gibt der Student eine einseitige Beschreibung der Aufgabe, sowie einen Arbeitsplan für das Semester ab. Zur besseren Koordination und Kommunikation wird erwartet, dass der Student bei einem 4(8) SWS-Projekt regelmäßig an einem (zwei) Tagen in der Softwarewerkstatt anwesend ist. Der genaue Tag ist in Absprache mit dem Betreuer festzulegen.

Als Richtlinie für die Erstellung einer guten Ausarbeitung wird das Buch

  • Markus Deininger and Horst Lichter and Jochen Ludewig and Kurt Schneider. Studien-Arbeiten: ein Leitfaden zur Vorbereitung, Durchführung und Betreuung von Studien-, Diplom- Abschluss- und Doktorarbeiten am Beispiel Informatik. 5. Auflage. vdf Hochschulverlag, Zürich, 2005.

empfohlen, welches in der Bibliothek im Semesterapparat des Fachgebiets Wissensverarbeitung ausliegt, und welches auch in einigen Exemplaren ausleihbar ist. Wir empfehlen die Anschaffung dieses Buchs (9,50 €), da es Sie bis zur Masterarbeit (und weiter) begleiten kann.

Alle verwendeten Referenzen sind zusätzlich zum Literaturverzeichnis der Ausarbeitung in BibSonomy einzugeben, mit den Tags “projekt”, “kde”, dem laufenden Semester in der Form “ss14” bzw. “ws14” und weiteren sinnvollen Tags.