. .

Projekt Bachelor / Master

Dieses Projekt lässt sich als Projekt Web 2.0 im Bachelor und als Projekt Wissensverarbeitung im Master anrechnen.

Projektvorbesprechung: Montag, 30.10.2017, 16.15 Uhr in Raum 0445/E. Bei Interesse können Sie auch gerne vorab den jeweiligen Betreuer ansprechen.

Themen:
Jeder Teilnehmer des Projektes bearbeitet eine individuelle Aufgabe im Umfeld unseres kooperativen Verschlagwortungssystems BibSonomy, der ubiquitären Plattform Ubicon oder des Namensuchportals Nameling.
Unter anderem stehen die folgenden Themen zur Auswahl:
( M = methodischer Schwerpunkt, T = technischer Schwerpunkt, B = als Bachelorarbeit möglich, MA = als Masterarbeit möglich )
 
Sonderprojekt Web Conference Challenge T,M

Die Aufgabenstellung wird spätestens am 1. Dezember 2017 hier veröffentlicht. Bis 12. Januar 2018 bzw. 14. Februar 2018 haben die Teilnehmer dann die Möglichkeit, ein entsprechendes Lösungsmodell einzureichen. Um eine effektive Ausnutzung der kurzen Wettbewerbszeit zu ermöglichen, raten wir allen Teilnehmern, sich umgehend bei den Betreuern (siehe unten) zu melden.

Die Kenntnisse der Vorlesung Knowledge Discovery sind notwendig.

Das Fachgebiet Wissens­verarbeitung ruft zur Teilnahme an der Web Conference Challenge 2018 auf. Der Wettbewerb richtet sich an Studierende und Doktoranden von Universitäten aus der ganzen Welt. Die Aufgabenstellung wird sich an einer aktuellen und praxisnahen Data-Mining-Problemstellung orientieren. Das Projekt beschäftigt sich mit der Lösung der gestellten Aufgabe. Von Projektteilnehmern wird die aktive Teilnahme an der Web Conference Challenge erwartet.

Leistungen:

  • 1 - 2 Präsentationen (je nach Team-Größe)
  • 5 Seiten Ausarbeitung

Informationen: Mark Kibanov

Auswertung der RFID-Daten und ihrer Qualität M

Die vom SocioPatterns Konsortium entwickelte RFID-Technologie ermöglicht die Lokalisierung von Menschen sowie die Bereitstellung von Informationen über deren soziale Kontakte. Ziel dieser Arbeit ist die Auswertung der vorliegenden RFID-Daten und daraus entstehenden Netzwerken.

Informationen: Mark Kibanov

Scraping-Framework für Social-Media-Daten zur Erkennung von Benutzerinteressen T

Im Projekt topikos werden anhand von mit Smartphones gesammelter Sensordaten automatisch topologische Karten von Umgebungen erstellt. In einem weiteren Schritt sollen die Karten mit automatisch extrahierten Themen angereichert werden. Für die Themenextraktion müssen zunächst Daten aus Social-Media-Plattformen gesammelt werden (hinterlegte öffentliche Profildaten, Posts, Likes, plattformspezifische Informationen wie Publikationstitel in ResearchGate).

Ziel dieses Projektes ist die Entwicklung eines einheitlichen und erweiterbaren Frameworks zur Beschaffung von Userdaten aus verschiedenen Social-Media-Plattformen. Die zu unterstützenden Plattformen sind Twitter, ResearchGate und Facebook (in Absprache/optional: Google+, BibSonomy, LinkedIn, Xing). In Absprache mit dem Betreuer muss analysiert werden, welche Daten aus diesen Plattformen zugänglich und nützlich sind.
In einem weiteren Schritt soll das Framework das Extrahieren von Features für einen Benutzer ermöglichen (z. Bsp. Bag-Of-Words, TF-IDF).

Informationen: Bastian Schäfermeier

Visualisierung von Hierarchien T

Im Rahmen des Projekts soll ein Software-Tool entwickelt werden, mit dem große Hierarchien dargestellt und untersucht werden können. Dazu sollen neben der Darstellung auch weitere Funktionen umgesetzt werden, die es bspw. erlauben, Teilbäume der Hierarchie anhand von Kontext-Informationen zu filtern oder auch zu expandieren.

Die Umsetzung kann mit Java, Python oder auch JavaScript (Webanwendung) erfolgen, wobei je nach gewählter Programmiersprache geeignete Bibliotheken für Datenvisualisierung (z.B. D3.js) oder Netzwerke (z.B. NetworkX) verwendet werden können.

Informationen: Andreas Schmidt

Generator für zufällige formale KontexteT,M

In diesem Projekt sollen verschiedene Ansätze bipartite Graphen zu erzeugen praktisch untersucht werden, um Generatoren für interessante Klassen von Kontexten zu entwickeln.

Informationen: Tom Hanika

Heuristiken zum Finden maximaler CliquenT,M,BA

Die maximale Cliquen in einem bipartiten Graphen $G$ entsprechen den formalen Begriffen eines Kontext welcher Isomorph zu Adjazenzmatrix von $G$ ist. Die Berechnung der Menge der formalen Begriffe ist aufwändig. Inwiefern können maximale Cliquen einer gewissen Größe durch heuristische Algorithmen leichter gefunden werden?

Informationen: Tom Hanika

Standard-Sample-Set für die Algorithmenentwicklung sozialer NetzwerkeT,M

Bei der Entwicklung neuer Methoden für die Untersuchung von sozialen Netzwerken werden häufig echte Beispieldaten benötigt. Ziel dieses Projektes ist es einen Pool solcher Daten in einem homogenen Format zusammenzustellen. Dabei sollen die Elemente des Pools auch hinsichtlich ihrer grundlegenden Eigenschaften klassifiziert werden.

Informationen: Gerd Stumme

Entropie in formalen KontextenT,M,B,MA

Entropie ist eine zentrales Maß für viele Objekte in der Wissenschaft. Es gibt verschiedene Ansätze die Idee von Entropie auf soziale Netzwerke zu übertragen. In dieser Arbeit soll ein Schritt weiter gegangen werden, indem eine Weiterübertragung auf formale Kontexte versucht wird. Neben der Modellierung soll eine Evaluierung hinsichtlich der Nutzbarkeit durchgeführt werden.

Informationen: Gerd Stumme

Begriffsverband der MaßeT,M,B

Es gibt eine Vielzahl von Maßen zur Identifikation von interessanten formalen Begriffen in Begriffsverbänden. Diese besitzen wiederum sehr verschiedene Eigenschaften wie zum Beispiel Monotonie. Dieser Arbeit besteht aus dem Zusammentragen und der Erstellung einer begriffliche Ordnung aller bekannten Maße.

Informationen: Tom Hanika

Dichtebasiertes Clustering und FBAT,M,B

Die zentrale Fragestellung dieser Arbeit ist die Verbindung zwischen dichtebasiertem Clustering und der Formalen Begriffsanalyse (FBA). Inwiefern können Ideen und Methoden des dichtebasiertem Clustering auf FBA übertragen werden?

Informationen: Gerd Stumme

BibSonomy: Simple Co-Autor RecommenderT,M

Für das social bookmark and publication sharing system BibSonomy soll ein simples Co-Autor Empfehlungssystem entworfen und implementiert werden. Es soll zum Beispiel der häufigste Co-Autor eines Autoren empfohlen werden. Dabei kann auf das vorhandene Recommender-Framework des BibSonomy Systems zurückgegriffen werden.

Informationen: Tom Hanika

BibSonomy: Neustrukturierung der Community Post SeiteT,M

Community Posts bilden in BibSonomy das gesammelte bekannte Wissen über einen Post ab. Bei diesem Projekt soll diese Seite hinsichtlich Funktionalität und Übersichtlichkeit neustrukturiert werden.

Informationen: Tom Hanika

BibSonomy: Personen- und Autoren-CloudsT,M

Personen- und Autoren-Clouds ermöglichen es dem User sehr aktive Autoren von Publikationen als auch Personen zu entdecken. Das effiziente und zeitnahe Berechnen und bereitstellen dieser Clouds ist jedoch aufgrund der Größe des BibSonomy Systems nicht trivial. Das Projekt beinhaltet die Entwicklung und Implementierung einer Lösung.

Informationen: Tom Hanika

BibSonomy: Weiterentwicklung des BibTeX-ParsersT,M

Parsen von BibTeX-Code ist eine der Schnittstellen um Publikationen in BibSonomy einzutragen. In den letzten Jahren gab es viele Entwicklungen um die orginale BibTeX-Software abzulösen. In diesem Projekt soll der Parser der aktuellen Software Biber untersucht werden um die mögliche Adaptierbarkeit für BibSonomy einzuschätzen.

Informationen: Tom Hanika

Aufgabenstellung und Termin:
Nach Absprache mit dem jeweiligen Betreuer. Je nach Thema kann die Aufgabe in Kleingruppen oder einzeln bearbeitet werden.
Vorkenntnisse:
Informatik Grundstudium
Angesprochener HörerInnenkreis:
Inf. Hauptstudium Bachelor und Diplom I, Master, Math. NF Inf. Hauptstudium
Umfang:
4 oder 8 SWS im Bachelor und Diplom I nach Absprache, 4 SWS im Master
Leistungsnachweis:
Implementierung, schriftliche Ausarbeitung und zwei Vorträge
Veranstalter:

Prof. Dr. Gerd Stumme, Dipl.-Math. Tom Hanika, Dipl.-Inform. Mark Kibanov, M.Sc. Juergen Mueller, M.Sc. Bastian Schäfermeier, M.Sc.Andreas Schmidt

Ablauf:
In der Regel sollte die Projektarbeit mit Semesterbeginn begonnen werden. Nach 4-6 Wochen findet eine Zwischenpräsentation statt, in der der Stand der Projektarbeit vorgestellt wird. In der Regel in der ersten Vorlesungswoche des folgenden Semesters werden dann die Endergebnisse vorgestellt. Eine kurze Beschreibung der Arbeit (5 Seiten) ist 3 Tage vor dem Vortrag einzureichen.

Eine Woche nach der Annahme des Themas gibt der Student eine einseitige Beschreibung der Aufgabe, sowie einen Arbeitsplan für das Semester ab. Zur besseren Koordination und Kommunikation wird erwartet, dass der Student bei einem 4(8) SWS-Projekt regelmäßig an einem (zwei) Tagen in der Softwarewerkstatt anwesend ist. Der genaue Tag ist in Absprache mit dem Betreuer festzulegen.

Als Richtlinie für die Erstellung einer guten Ausarbeitung wird das Buch

  • Markus Deininger and Horst Lichter and Jochen Ludewig and Kurt Schneider. Studien-Arbeiten: ein Leitfaden zur Vorbereitung, Durchführung und Betreuung von Studien-, Diplom- Abschluss- und Doktorarbeiten am Beispiel Informatik. 5. Auflage. vdf Hochschulverlag, Zürich, 2005.
empfohlen, welches in der Bibliothek im Semesterapparat des Fachgebiets Wissensverarbeitung ausliegt, und welches auch in einigen Exemplaren ausleihbar ist. Wir empfehlen die Anschaffung dieses Buchs (9,50 €), da es Sie bis zur Masterarbeit (und weiter) begleiten kann.

Alle verwendeten Referenzen sind zusätzlich zum Literaturverzeichnis der Ausarbeitung in BibSonomy einzugeben, mit den Tags "projekt", "kde", dem laufenden Semester in der Form "ss14" bzw. "ws14" und weiteren sinnvollen Tags.