Projekt Web 2.0 / Wissensverarbeitung

Dieses Projekt lässt sich als Projekt Web 2.0 im Bachelor und als Projekt Wissensverarbeitung im Master anrechnen.

Projektvorbesprechung: Montag, 21.10.2019, 16.15 Uhr in Raum 0445/E. Bei Interesse können Sie auch gerne vorab den jeweiligen Betreuer ansprechen.

Themen:

Jeder Teilnehmer des Projektes bearbeitet eine individuelle Aufgabe in aktuellen Forschungsthemen des Fachgebiets Wissensverarbeitung.

 Unter anderem stehen die folgenden Themen zur Auswahl:

(M = methodischer Schwerpunkt, T = technischer Schwerpunkt, B = als Bachelorarbeit möglich, MA = als Masterarbeit möglich)

PCA auf formalen Kontexten T,M

Principal Component Analysis dient dazu Datensätze zu vereinfachen. Hierbei wird eine große Menge an (möglicherweise) korrelierten Variablen in eine möglichst aussagekräftige kleinere Menge transformiert. Dieses Vorgehen soll auf formale Kontexte übertragen werden, um die ihre Merkmalsmenge einzuschränken.

Informationen: Maren Koyda

Begriffliches Skalieren von Datensätzen T,M

Um Datensätze mit z.B. numerischen oder ordinalen Einträgen mit Methoden der Formalen Begriffsanalyse untersuchen zu können, müssen diese zuerst in eine entsprechende Form gebracht (also skaliert) werden. In diesem Projekt soll ein interaktives Tool erstellt werden, mit dem Datensätze begrifflich skaliert werden können.

Informationen: Maximilian Felde

Begriffsverband der Maße T,M,B

Es gibt eine Vielzahl von Maßen zur Identifikation von interessanten formalen Begriffen in Begriffsverbänden. Diese besitzen wiederum sehr verschiedene Eigenschaften wie zum Beispiel Monotonie. Dieser Arbeit besteht aus dem Zusammentragen und der Erstellung einer begriffliche Ordnung aller bekannten Maße.

Informationen: Tom Hanika

Begriffliche Datenanalyse auf großen Datensätzen T,M,B

Um aus größeren Datenmengen mit Methoden der Formalen Begriffsanalyse Wissen lesbarer Größe zu extrahieren können verschiedenste Selections- und Reduzierungstechniken angewandt werden. Der Schwerpunkt dieser Arbeit besteht im Zusammentragen, Gegenüberstellen und Vergleichen dieser Methoden.

Informationen: Johannes Hirth

Standard-Sample-Set für die Algorithmenentwicklung sozialer Netzwerke T,M

Bei der Entwicklung neuer Methoden für die Untersuchung von sozialen Netzwerken werden häufig echte Beispieldaten benötigt. Ziel dieses Projektes ist es einen Pool solcher Daten in einem homogenen Format zusammenzustellen. Dabei sollen die Elemente des Pools auch hinsichtlich ihrer grundlegenden Eigenschaften klassifiziert werden.

Informationen: Gerd Stumme

BibSonomy: Weiterentwicklung des BibTeX-Parsers T,M

Parsen von BibTeX-Code ist eine der Schnittstellen um Publikationen in BibSonomy einzutragen. In den letzten Jahren gab es viele Entwicklungen um die orginale BibTeX-Software abzulösen. In diesem Projekt soll der Parser der aktuellen Software Biber untersucht werden um die mögliche Adaptierbarkeit für BibSonomy einzuschätzen.

Informationen: Tom Hanika

BibSonomy: Personen- und Autoren-Clouds T,M

Personen- und Autoren-Clouds ermöglichen es dem User sehr aktive Autoren von Publikationen als auch Personen zu entdecken. Das effiziente und zeitnahe Berechnen und bereitstellen dieser Clouds ist jedoch aufgrund der Größe des BibSonomy Systems nicht trivial. Das Projekt beinhaltet die Entwicklung und Implementierung einer Lösung.

Informationen: Tom Hanika

BibSonomy: Neustrukturierung der Community Post Seite T,M

Community Posts bilden in BibSonomy das gesammelte bekannte Wissen über einen Post ab. Bei diesem Projekt soll diese Seite hinsichtlich Funktionalität und Übersichtlichkeit neustrukturiert werden.

Informationen: Tom Hanika

Dichtebasiertes Clustering und FBA T,M,B

Die zentrale Fragestellung dieser Arbeit ist die Verbindung zwischen dichtebasiertem Clustering und der Formalen Begriffsanalyse (FBA). Inwiefern können Ideen und Methoden des dichtebasiertem Clustering auf FBA übertragen werden?

Informationen: Gerd Stumme

Entropie in formalen Kontexten T,M,B,MA

Entropie ist eine zentrales Maß für viele Objekte in der Wissenschaft. Es gibt verschiedene Ansätze die Idee von Entropie auf soziale Netzwerke zu übertragen. In dieser Arbeit soll ein Schritt weiter gegangen werden, indem eine Weiterübertragung auf formale Kontexte versucht wird. Neben der Modellierung soll eine Evaluierung hinsichtlich der Nutzbarkeit durchgeführt werden.

Informationen: Gerd Stumme

Hubs and Authorities in Formal Contexts T,M,BA

Hubs und Authorities sind wohlbekannte Instrumente um Netzwerkgraphen (insbesondere von sozialen Netzwerken), zu analysieren. Ziel dieses Projekts ist es diese im Bereich von formalen Kontexten aus der Formalen Begriffsanalyse zu studieren. Welche Beziehung besteht zwischen Hubs, Authorities und formalen Begriffen?

Informationen: Tom Hanika

Kernel Systems vs Closure Systems  T,M,BA

Hüllensystem (Closure Systems) werden oft zur Repräsentation von Wissen genutzt, z.B. um Aussagenlogische Systeme kompakt zu beschreiben. Komplementär zu Hüllensystemen können aber auch Kernsysteme (Kernel Systems) genutzt werden, die von einem Kernoperator erzeugt werden. Ziel dieser Arbeit ist die praktische Untersuchung der Beziehung zwischen Hüllensystemen und Kernsystemen auf realen Daten. 

Informationen: Tom Hanika

Series Parallel Networks in Citation Networks T,M,BA

Series Parallel Networks (SPN) sind ein interessanter Ansatz um Netzwerke zu analysieren, indem sie diese in kleinere, elementarere Bestandteile zerlegen. SPN stehen dabei in einer engen Beziehung zu Permutationen und deren Zerlegungen.  In diesem Projekt bzw. in dieser Arbeit soll  Anwendbarkeit von SPN zum Studium von (sozialen) Netzwerkgraphen untersucht werden. Dafür soll zunächst eine Vielzahl von Netzwerkgraphen auf solche Zerlegungen untersucht werden. Um das zu tun können je nach Interesse eine Vielzahl von praktischen als auch theoretischen Fragen bearbeitet werden.

Informationen: Tom Hanika

Generator für zufällige formale Kontexte T,M

In diesem Projekt sollen verschiedene Ansätze bipartite Graphen zu erzeugen praktisch untersucht werden, um Generatoren für interessante Klassen von Kontexten zu entwickeln.

Informationen: Tom Hanika

Pedestrian Dead Reckoning Methoden zur Schätzung der Lage von Orten zueinander T,M,BA,MA

Bei der Erstellung topologischer Karten mithilfe von Sensordaten ist eine ungefähre Abschätzung der Lage der Orte zueinander interessant. Dies kann mit Methoden des Pedestrian Dead Reckoning realisiert werden, bei denen die Bewegung anhand einer Schrittdetektion und der Schätzung der jeweiligen Schrittrichtung und -länge modelliert wird. Je nach Umfang des Projektes ist eine Fokussierung auf einen der Teilaspekte möglich (zum Beispiel Entfernungen oder Himmelsrichtungen zwischen Orten).

Informationen: Bastian Schäfermeier

Themenerkennung in Konferenzdatensätzen T, M

Es gibt eine Vielzahl von Text-Mining-Methoden zur Erkennung von Themen. In dieser Arbeit sollen eine oder mehrere geeignete Methoden zur Erkennung von Forschungsthemen in kurzen Texten (Paper Abstracts) ausgewählt und ggf. miteinander verglichen werden. Dabei soll eine Methode genutzt oder ggf. entwickelt werden, mit der sich auch Konferenzen thematisch repräsentieren lassen. Vorzugsweise sollte als Methode mindestens eine der Varianten von Non-Negative Matrix Factorization (NMF) oder eine auf Basis von Word2Vec gewählt werden (z. Bsp. das Author2Vec-Modell).

Aufgabenstellung und Termin:

Nach Absprache mit dem jeweiligen Betreuer. Je nach Thema kann die Aufgabe in Kleingruppen oder einzeln bearbeitet werden.

Vorkenntnisse:

Informatik Grundstudium

Angesprochener HörerInnenkreis:

Inf. Hauptstudium Bachelor und Diplom I, Master, Math. NF Inf. Hauptstudium

Umfang:

4 oder 8 SWS im Bachelor und Diplom I nach Absprache, 4 SWS im Master

Leistungsnachweis:

Implementierung, schriftliche Ausarbeitung und zwei Vorträge

Veranstalter:

Prof. Dr. Gerd Stumme, Master Math. Dominik Dürrschnabel, Master Math. Maximilian Felde, Dr. Tom Hanika, Master Math. Maren Koyda, Master Inform. Bastian Schäfermeier, Master Math. Maximilian Stubbemann

Ablauf:

In der Regel sollte die Projektarbeit mit Semesterbeginn begonnen werden. Nach 4-6 Wochen findet eine Zwischenpräsentation statt, in der der Stand der Projektarbeit vorgestellt wird. In der Regel in der ersten Vorlesungswoche des folgenden Semesters werden dann die Endergebnisse vorgestellt. Eine kurze Beschreibung der Arbeit (5 Seiten) ist 3 Tage vor dem Vortrag einzureichen.

Eine Woche nach der Annahme des Themas gibt der Student eine einseitige Beschreibung der Aufgabe, sowie einen Arbeitsplan für das Semester ab. Zur besseren Koordination und Kommunikation wird erwartet, dass der Student bei einem 4(8) SWS-Projekt regelmäßig an einem (zwei) Tagen in der Softwarewerkstatt anwesend ist. Der genaue Tag ist in Absprache mit dem Betreuer festzulegen.

Als Richtlinie für die Erstellung einer guten Ausarbeitung wird das Buch

  • Markus Deininger and Horst Lichter and Jochen Ludewig and Kurt Schneider. Studien-Arbeiten: ein Leitfaden zur Vorbereitung, Durchführung und Betreuung von Studien-, Diplom- Abschluss- und Doktorarbeiten am Beispiel Informatik. 5. Auflage. vdf Hochschulverlag, Zürich, 2005.

empfohlen, welches in der Bibliothek im Semesterapparat des Fachgebiets Wissensverarbeitung ausliegt, und welches auch in einigen Exemplaren ausleihbar ist. Wir empfehlen die Anschaffung dieses Buchs (9,50 €), da es Sie bis zur Masterarbeit (und weiter) begleiten kann.

Alle verwendeten Referenzen sind zusätzlich zum Literaturverzeichnis der Ausarbeitung in BibSonomy einzugeben, mit den Tags “projekt”, “kde”, dem laufenden Semester in der Form “ss19” bzw. “ws19” und weiteren sinnvollen Tags.