Projekt Knowledge Discovery and Data Engineering

Dieses Projekt lässt sich als Bachelor- und als Masterprojekt anrechnen.

Das Fachgebiet Wissensverarbeitung forscht an der Entwicklung von Methoden zur Wissensentdeckung und Wissensrepräsentation (Approximation und Exploration von Wissen, Ordnungsstrukturen in Wissen, Ontologieentwicklung) in Daten als auch in der Analyse von (sozialen) Netzwerkdaten und damit verbundenen Wissensprozessen (Metriken in Netzwerken, Anomalieerkennung, Charakterisierung von sozialen Netzwerken). Dabei liegt ein Schwerpunkt auf der exakten algebraischen Modellierung der verwendeten Strukturen und auf der Evaluierung und Neuentwicklung von Netzwerkmaßen. Neben der Erforschung von Grundlagen in den Gebieten Ordnungs- und Verbandstheorie, Beschreibungslogiken, Graphentheorie und Ontologie werden auch Anwendungen – bspw. in sozialen Medien sowie in der Szientometrie – erforscht.

In diesem Umfeld bietet das Fachgebiet regelmäßig eine Reihe von Projektthemen an. Die einzelnen Themen sind im Folgenden beschrieben:

Investigate Formal Conceptual Views in Neural Networks

Mit Formal Conceptual Views ist ein neues Modell zur Erklärung von Neuralen Netzwerken vorgestellt worden. Ziel dieser Arbeit ist es die Methode auf weitere Modelle und Daten Domänen anzuwenden und die Formal Conceptual Views mit weiteren Methoden der symbolischen Wissensverarbeitung zu analysieren.

Informationen: Johannes Hirth

Kategorien: Allgemein, Bachelorarbeit, Masterarbeit, Methodischer Schwerpunkt, Technischer Schwerpunkt

Formale Begriffsanalyse mittels Pytorch

In diesem Projekt soll untersucht werden, inwiefern sich Strukturen aus dem Bereich der formalen Begriffsanalyse mittels Pytorch implementieren lassen. Desweiteren soll evaluiert werden, wie sich Aufgaben wie die Berechnung von Ableitungen und Begriffsverbände mittels optimierter Tensoroperationen effizient realisieren lassen.

Informationen: Maximilian Stubbemann

Kategorien: Allgemein, Technischer Schwerpunkt

Web Framework for Interactive Visualizations of Hierarchical Data Structures

Visualizations of relationships among properties often rely on hierarchical structures that depict various combinations of properties. A problem of such structures is that they are often misinterpreted by inexperienced users, since closeness and similarity only arise through given edges and not through spatial proximity. Therefore it is necessary to support inexperienced users with possibilities for interaction. The goal of this project is to further develop a web framework for interactive visualization of hierarchical structures.

Informationen: Johannes Hirth

Informationen: Viktoria Horn (Fachgebiet GeDIS)

Kategorien: Allgemein, Bachelorarbeit, Masterarbeit, Methodischer Schwerpunkt, Technischer Schwerpunkt

Knowledge Extraction from OpenStreetMap

Bei OpenStreetMap (OSM) handelt es sich um ein freies Projekt, dessen Ziel es ist, frei nutzbare Geodaten zu sammeln, zu strukturieren und für die Nutzung durch jedermann mittels einer (semantischen) Datenbank zur Verfügung zu stellen. Die Daten in OSM werden insbesondere durch eine Vielzahl von Tags [1] angereichert. Diese Tags können wiederum genutzt werden, um Orte oder Gebiete zu bechreiben. Im Projekt soll daher versucht werden, für gegebene Orte automatisch eine Beschreibung mittels Tags zu generieren. Für das Projekt soll eine Demonstrationsapplikation entwickelt werden, in Clojure oder Python3, welche es erlaubt, gegebene Orte automatisch anhand ihrer Beschreibung aus OSM zu vergleichen. Im Rahmen einer Abschlussarbeit kann darauf aufbauend ein ontologisches Rahmenwerk für diese Art von Ortsvergleichen angefangen werden.
[1] https://wiki.openstreetmap.org/wiki/Tags

Informationen: Tom Hanika

Kategorien: Allgemein, Bachelorarbeit, Masterarbeit, Methodischer Schwerpunkt, Technischer Schwerpunkt

Causal AI — Implementing Causal Closure Operators

Eine große Herausforderung in der KI-Forschung ist es, kausale Zusammenhänge aus gelernten Modellen zu extrahieren. Die Formale Begriffsanalyse bietet dafür eine umfangreiche Palette an Werkzeugen, insbesondere die menschlich-nachvollziehbare Extraktion von Hüllenoperatoren und Hüllensystemen aus Daten. Ein interessanter Ansatz, dies für Kausale-KI zu nutzen, sind kausale Hüllenoperatoren, welche in diesem Projekt oder dieser Arbeit untersucht werden sollen. Dabei liegt für das Projekt der Schwerpunkt in einer effizienten Implementierung eines `Causal Closure Operators` aus der Literatur in Clojure oder Python3. Bei einer Abschlussarbeit liegt der Fokus auf einem Vergleich dieses Operators mit statistischen Ansätzen zu Kausalität in Daten.

Informationen: Tom Hanika

Kategorien: Allgemein, Bachelorarbeit, Masterarbeit, Methodischer Schwerpunkt, Technischer Schwerpunkt

Analyse von WikiCite

Das WikiCite-Projekt [1] versucht, basierend auf der Infrastruktur von WikiData [2], (wissenschaftliche) Publikationen und deren jeweilige Zitationen abzubilden. Bis dato hat das Projekt 40 Mio. Publikationen und ca. 300 Mio Zitationen verlinkt. Ziel dieses Bachelor-/Master-Projektes bzw. einer möglichen Abschlussarbeit ist es, diese Daten hinsichtlich sozialer Netzwerkstrukturen zu analysieren.

[1] http://wikicite.org/

[2] https://www.wikidata.org/

Informationen: Tom Hanika

Kategorien: Allgemein, Bachelorarbeit, Masterarbeit, Methodischer Schwerpunkt, Technischer Schwerpunkt

Topic Flow-Graphen für Textdaten visualisieren

Topic-Modelle ermöglichen es, große Text-Corpora thematisch zu clustern und so besser zu verstehen. Dabei ist es besonders interessant zu messen, wie stark verschiedene Themencluster andere über die Zeit beeinflusst haben. In `Research Topic Flows in Co-Authorship Networks` [1] haben die Autoren einen Vorschlag zur Messung dieses Einflusses gemacht, dessen Ergebnisse demnächst auf einer Website (basierend auf Vue.js) interaktiv explorierbar sind. Im vorliegenden Projekt soll diese Präsentation der Ergebnisse erweitert werden. Genauer sollen thematische Beiträge einzelner Autoren aus dem Gesamtmodell berechnet und grafisch visualisiert werden. Die Implementation soll ebenso mittels Vue.js stattfinden.

[1] https://arxiv.org/pdf/2206.07980.pdf

Informationen: Tom Hanika

Kategorien: Allgemein, Methodischer Schwerpunkt, Technischer Schwerpunkt

Core Numbers in Bipartite Networks

Core numbers are efficient valuations for nodes in networks. They are a measure to describe the structural integration of nodes. In this work, you should characterize and study core numbers for bipartite graphs.

Informationen: Johannes Hirth

Kategorien: Allgemein, Bachelorarbeit, Masterarbeit

Intrinsische Dimension und Knoteneinbettungen

In dieser Arbeit soll untersucht werden, wie hoch die intrinsische Dimension von Datensätzen ist, welche mit verschiedenen Knoteneinbettungsverfahren aus Graphen erstellt wurden.

Informationen: Maximilian Stubbemann

Kategorien: Allgemein, Bachelorarbeit, Masterarbeit, Methodischer Schwerpunkt

Frontend-Entwicklung für Conexp-clj

Die Software conexp-clj implementiert viele Methoden der Formalen Begriffsanalyse, einem Teilgebiet der künstlichen Intelligenz. Dabei finden sowohl symbolische als auch hybride Konzepte Anwendung. Für einen Teil der Funktionalität von conexp-clj ist ein Web-Frontend, basierend auf Vue.js, entwickelt worden, welches im Rahmen des vorliegenden Projekts weiterentwickelt werden soll. Insbesondere sollen RuleMining-Methoden (z.B., Implikationen, Assoziationsregeln) Nutzer:innenfreundlich in der GUI abgebildet werden.

Informationen: Tom Hanika, Johannes Hirth

Kategorien: Allgemein, Technischer Schwerpunkt

Operationen aus der Relationalen Algebra in der Begriffsanalyse

Operationen (Joins etc) aus der Relationalen Algebra werden häufig verwendet um Daten zu verbinden oder zu kombinieren. Dadurch ergeben sich neue Zusammenhänge zwischen Objekten oder deren Eigenschaften. Eine Methode, um solche Zusammenhänge zu analysieren, kommt aus der Begriffsanalyse. Hierbei werden Veränderungen in der Begrifflichen Struktur analysiert und herausgearbeitet. In dieser Arbeit studieren Sie, wie sich die Begriffliche Struktur eines Datensatzes unter Verwendung von Operationen aus der Relationalen Algebra verändert.

Informationen: Johannes Hirth

Kategorien: Allgemein, Bachelorarbeit, Masterarbeit, Methodischer Schwerpunkt

Community Detection in WikiData zur Datensatzgenerierung

Knowlegde Graphs wie WikiData enthalten sehr viel Wissen, das im Bereich der künstlichen Intelligenz in vielen Anwendungen eingesetzt werden kann. Der Umfang an Informationen ist aber auch ein Problem für viele Anwendungen. Ihre Aufgabe besteht darin, Methoden der Community Detection in sozialen Netzwerken auf die Struktur von WikiData zu übertragen. Des Weiteren sollen Sie untersuchen, wie diese Methoden genutzt werden können, um kleinere Teil-Datensätze aus WikiData zu extrahieren.

Informationen: Johannes Hirth

Kategorien: Allgemein, Bachelorarbeit, Methodischer Schwerpunkt, Technischer Schwerpunkt

Logische Repräsentationen für Skalenmaße

Eine Methode der Datenskalierung in der Formalen Begriffsanalyse sind Skalenmaße. Das Skalenmaß-Framework bietet eine kanonische Repräsentation für jede mögliche Skalierung. Diese Repräsentation ist aber nicht gut im Sinne der Interpretierbarkeit der Attribute. Um dieses Problem zu lösen, gibt es eine Interpretation der kanonischen Attribute mittels konjunktiv verknüpfter Attribute des Originaldatensatzes. In dieser Arbeit sollen Sie weitere logische Repräsentation erarbeiten und miteinander auf deren Interpretierbarkeit, Ausdrucksstärke und Berechenbarkeit vergleichen.

Informationen: Johannes Hirth

Kategorien: Allgemein, Methodischer Schwerpunkt, Technischer Schwerpunkt

Evaluierung von Graphzeichnungen

Ziel dieser Arbeit ist es, zu evaluieren, welche “weichen” Kriterien für Graphzeichnungen in der Praxis wie stark mit als “schön” wahrgenommenen Zeichnungen korellieren. Außerdem soll untersucht werden, inwieweit die “wichtigen” Kriterien sich beim Zeichnen von Graphen und Ordnungsdiagrammen unterscheiden.

Informationen: Maximilian Stubbemann

Kategorien: Allgemein, Masterarbeit, Technischer Schwerpunkt

Invarianten für Formale Kontexte

Es ist nicht einfach zu erkennen, ob zwei (reduzierte) Formale Kontexte isomorph sind, bzw. gegeben eine Menge Formaler Kontexte zu erkennen, wie viele verschiedene Formale Kontexte dort enthalten sind. Ein Hilfsmittel sind Invarianten, also abgeleitete Größen, die nicht von der konkreten Darstellung des Formalen Kontexts abhängen, beispielsweise die Anzahl der Attribute des Kontexts oder auch die Anzahl der Begriffe des Kontexts. Haben zwei Kontexte unterschiedliche Werte für eine Invariante, so sind die Kontexte nicht isomorph. Ziel ist es, Formale Kontexte hinsichtlich möglicher Invarianten zu untersuchen. Formale Kontexte können als bipartite Graphen dargestellt werden, daher sollen insbesondere bekannte Graph-Invarianten in Betracht gezogen werden.

Informationen: Maximilian Felde

Kategorien: Allgemein, Bachelorarbeit, Masterarbeit, Methodischer Schwerpunkt

Begriffliches Skalieren von Datensätzen

Begriffliches Skalieren ist eine Methode der Formalen Begriffsanalyse, um einen mehrwertigen Kontext (d.h. einen tabellarischen Datensatz) in einen (einwertigen) formalen Kontext zu überführen. Dazu wurde am Fachgebiet eine Anwendung entwickelt, die grundlegende Funktionalität zum Begrifflichen Skalieren bereitstellt. Ziel des Projekts ist es, diese Anwendung weiterzuentwickeln. Die Programmiersprache ist Clojurescript.

Informationen: Maximilian Felde

Kategorien: Allgemein, Technischer Schwerpunkt

Erklärbarkeit von Klassifikatoren durch Surrogate

Viele der gegenwärtig genutzten Lernmodelle zur Klassifikation erzeugen sogenannte Blackbox-Funktionen/Relationen, z.B. Random Forests oder Neuronale Netze. Diese entziehen sich einer direkten Erklärbarkeit und sind daher für Nutzer:innen schwer nachvollzieh- und überprüfbar. Es gibt verschiedene numerische / kategorische/ statistische Ansätze, um diesem Problem zu begegnen. Ein besonderer Ansatz ist Surrogatlernen, d.h., das Trainieren eines erklärbaren Klassifikators basierend auf einer Blackbox. Je nach Ausrichtung (Projekt/Bachelorarbeit/Masterarbeit) soll versucht werden, bestehende Surrogat-Ansätze praktisch zu evaluieren oder theoretische Ansätze fortzusetzen.

Informationen: Tom Hanika

Kategorien: Allgemein, Bachelorarbeit, Masterarbeit, Methodischer Schwerpunkt

PCA auf formalen Kontexten

Principal Component Analysis dient dazu, Datensätze zu vereinfachen. Hierbei wird eine große Menge an (möglicherweise) korrelierten Variablen in eine möglichst aussagekräftige kleinere Menge transformiert. Dieses Vorgehen soll auf formale Kontexte übertragen werden, um ihre Merkmalsmenge einzuschränken.

Informationen: Maren Koyda

Kategorien: Allgemein, Bachelorarbeit, Masterarbeit, Methodischer Schwerpunkt, Technischer Schwerpunkt

Weitere Themen auf Nachfrage.

Aufgabenstellung und Termin

Nach Absprache mit der/dem jeweiligen Betreuer*in. Je nach Thema kann die Aufgabe in Kleingruppen oder einzeln bearbeitet werden.

Projektvorbesprechung

Montag, 25.4.2022, 16.15 Uhr in Raum 0445/E.
Bei Interesse können Sie auch gerne vorab die/den jeweiligen Betreuer*in ansprechen.

Vorkenntnisse

Informatik Grundstudium

Angesprochener Hörer*innenkreis

Informatik Bachelor und Master, Math. NF Inf. Hauptstudium

Umfang

6 oder 12 Credits im Bachelor, bzw. 8 Credits im Master

Leistungsnachweis

Implementierung, schriftliche Ausarbeitung und zwei Vorträge (bei 6 Credits 20 min, bei 8/12 Credits 30 min, jeweils zzgl. ca 15 min Diskussion)

Veranstalter*in

Prof. Dr. Gerd Stumme, Dr. Tom Hanika, Dominik Dürrschnabel, M.Sc.Maximilian Felde, M.Sc., Johannes Hirth, M.Sc., Maren Koyda, M.Sc.Maximilian Stubbemann, M.Sc. 

Ablauf

In der Regel sollte die Projektarbeit mit Semesterbeginn begonnen werden. Nach 4-6 Wochen findet eine Zwischenpräsentation statt, in der der Stand der Projektarbeit vorgestellt wird. In der Regel in der ersten Vorlesungswoche des folgenden Semesters werden dann die Endergebnisse vorgestellt. Eine kurze Beschreibung der Arbeit (5 Seiten) ist 3 Tage vor dem Vortrag einzureichen.

Eine Woche nach der Annahme des Themas gibt die/der Studierende eine einseitige Beschreibung der Aufgabe, sowie einen Arbeitsplan für das Semester ab. Zur besseren Koordination und Kommunikation wird erwartet, dass die/der Studierende bei einem 6(8-12) Credits-Projekt regelmäßig an einem (zwei) Tagen in der Softwarewerkstatt anwesend ist. Der genaue Tag ist in Absprache mit der/m Betreuer*in festzulegen.

Als Richtlinie für die Erstellung einer guten Ausarbeitung wird das Buch

Markus Deininger and Horst Lichter and Jochen Ludewig and Kurt Schneider. Studien-Arbeiten: ein Leitfaden zur Vorbereitung, Durchführung und Betreuung von Studien-, Diplom- Abschluss- und Doktorarbeiten am Beispiel Informatik. 5. Auflage. vdf Hochschulverlag, Zürich, 2005.

empfohlen, welches in der Bibliothek im Semesterapparat des Fachgebiets Wissensverarbeitung ausliegt, und welches auch in einigen Exemplaren ausleihbar ist. Wir empfehlen die Anschaffung dieses Buchs (9,50 €), da es Sie bis zur Masterarbeit (und weiter) begleiten kann.

Alle verwendeten Referenzen sind zusätzlich zum Literaturverzeichnis der Ausarbeitung in BibSonomy einzugeben, mit den Tags “projekt kde < laufendes Semester in der Form ss22 bzw. ww22 > ” und weiteren sinnvollen Tags.