Towards Ordinal Data Science

Januar 2023 bis Dezember 2024

Projektleiter: Prof. Dr. Gerd Stumme

The project will lay first foundations for a new field of Ordinal Data Science. In particular, we will address a research question that is relevant for many aspects in Ordinal Data Science: The charm of algebraic methods (as those in order and lattice theory) is that they provide elegant means for decomposing complex structures, and thus to reduce the underlying complexity. However, these decompositions only work under certain preconditions. Unfortunately, real world data in general do not completely meet these preconditions (that is why most machine learning methods rely on statistical approaches). The central question of the project is thus how to relax or adopt algebraic-based methods such that they are able to cope with real-world (ie. inaccurate, disturbed, noisy …) data?

Dimension Curse Detector. Offenlegung und Bewertung hochdimensionaler Konzentrationsphänomene im maschinellen Lernen

Januar 2022 bis März 2024

Dimension Curse Detector

LOEWE-Projekt in der Förderlinie Exploration

Projektleiter: Dr. Tom Hanika

Das Projekt quantifiziert und evaluiert Konzentrationsphänomene in hochdimensionalen Daten, welche oftmals assoziiert werden mit dem Begriff „Dimension Curse“ oder auch „Fluch der Dimension“. So heißt das Zusammenspiel einer Vielzahl von Effekten, die auftreten, wenn maschinelle Lernverfahren auf hochdimensionale Daten angewendet werden, etwa bei Tumoren in der Medizin. Bisher kann dieses Phänomen noch nicht mit Algorithmen erkannt werden. Es ist daher offen, inwieweit es Ergebnisse wissenschaftlicher Anwendungen entscheidend beeinflusst hat.

Ziel des Projektes „Dimension Curse Detector“ ist es, den Einfluss des Konzentrationsphänomens offenzulegen. Dafür werden algorithmisch berechenbare Dimensionsfunktionen entwickelt und prototypisch implementiert. Der Dimensionsfluch ist in Data Science und Machine Learning ein Sammelbegriff für eine Vielzahl von Phänomenen, die von hochdimensionalen Daten ausgeprägt werden, insbesondere die Konzentration von Bewertungs- und Distanzfunktionen. Dieser Aspekt wird oft nur anekdotisch gefasst, was zu einer Vielzahl von empirisch abgeleiteten Empfehlungen führte, die jedoch mathematisch unfundiert als auch widersprüchlich sind. Um den wissenschaftlichen sowie ökonomischen Einsatz von Methoden der Künstlichen Intelligenz auch für zukünftige, erwartbar hochdimensionale, Daten sicherzustellen, ist das Erkennen sowie die Quantifizierung des Dimensionsfluchs notwendig. Nur so ist es möglich, im Sinne von Explainable AI die auf Basis dieser Daten getroffenen Entscheidungen transparent und damit einer bewussten Reflexion und diskursiven Argumentation zugänglich zu machen. Der Dimension Curse Detector soll in diesem Sinn ein Werkzeug für die Gestaltung gesellschaftlich wünschenswerter IT-Anwendungen werden.

FAIRDIENSTE – Faire digitale Dienste – Kartographierung von Kontroversen

Februar 2021 bis April 2024

Projektseite des BMBF

Projektseite des ITeG

Unternehmen, die digitale Produkte oder Dienstleistungen vermarkten, stehen oft vor dem Dilemma, dass ihr Interesse an Kundendaten dem Wunsch der Kundinnen und Kunden nach Privatheit entgegensteht. Immer mehr Verbraucherinnen und Verbraucher reagieren sensibel, wenn sie zu viele Daten preisgeben sollen. Hier werden neue Ansätze benötigt, die dies bei der Geschäftsmodellentwicklung berücksichtigen und einen fairen Kompromiss für beide Seiten bieten. In dem Projekt wird ein interdisziplinärer Ansatz verfolgt, der sowohl soziologische als auch (wirtschafts-)informatische Aspekte beinhaltet. Es werden faire Geschäftsmodelle untersucht, die auf Kooperation und Wertevermittlung zielen.

Hierzu gilt es u.a. zu prüfen, inwiefern mittels Social Media- oder Plattformarchitekturen durch die Auslagerung von Wertkonflikten und damit verbundenen Bewertungsfragen eine Kultur der Fairness ökonomisch befördert werden kann. Zur Unterstützung dieses Ansatzes
wird das Fachgebiet Wissensverarbeitung basierend auf der mathematischen Ordnungstheorie ein Paradigma zur Visualisierung von Wertkonflikten entwickeln.

Abgeschlossene Projekte

Causal AI through Conceptual Exploration

Oktober 2022 bis September 2023

Projektleiter: Prof. Dr. Tom Hanika

The Shape of Knowledge – Persistent Lattice Homology

August 2022 bis Juli 2023

Projektleiter: Prof. Dr. Tom Hanika

REGIO – Eine Kartierung der Entstehung und des Erfolges von Kooperationsbeziehungen in regionalen Forschungsverbünden und Innovationsclustern

Juli 2018 bis Juni 2021

Verlängerung: Juli 2021 bis Dezember 2021

REGIO, REGIO@L3S

Wissenschaft und Innovation sind durch lokale Interaktion gekennzeichnet: Akteure tendieren dazu, bevorzugt mit Akteuren in ihrer “Nähe” zu kooperieren. Ziel des Vorhabens ist, zu einem besseren Verständnis der Rolle von “Nähe” – insbesondere geographischer und thematischer Nähe – für den Erfolg von Interaktion in Wissenschaft und privatwirtschaftlicher Forschung und Entwicklung beizutragen. Die leitende Hypothese ist, dass die Entstehung von wissenschaftlichen Forschungsverbünden und erfolgreichen regionalen Innovationsclustern die Kumulation wissenschaftlicher Expertise in einem wissenschaftlichen Gebiet in einer geographischen Region voraussetzt. Welche Eigenschaften und Konstellationen von Akteuren tragen zum Entstehen und Erfolg von Kooperationen bei?

TOPIKOS – Kollaborative topologisch-thematisch-soziale Indoor-Kartierungen

November 2016 bis November 2019

Verlängerung: November 2019 bis Dezember 2020

TOPIKOS

Wir untersuchen das gemeinsame Entstehen von topologischen, thematischen und sozialen Karten von kurzzeitigen Indoor-Veranstaltungen wie Tagungen und Messen durch Crowd-Sourcing ohne Aufwand für die Veranstaltungsteilnehmer und ohne die Unterstützung des Veranstalters. Bei der Betrachtung von Szenarien, bei denen keine explizite Lokaliserungsinfrastruktur gegeben ist, keine Kartierung vor Beginn der Veranstaltung vorgenommen wurde und die Nutzer nicht von ihrem üblichen Verhalten abweichen müssen, folgen wir der Idee einer ‘Common Sense Geography’, wie sie vom DFG-Excellenz-Cluster 264 ‘Topoi’ postuliert wurde. Wir fokussieren auf topologische Karten, die (Indoor-)’Plätze’ (d.h. Orte, an denen Menschen zusammenkommen) und die ‘Pfade’ zwischen ihnen darstellen. Themen extrahieren wir mittels Text Mining aus den Dokumenten der Teilnehmer (etwa ihrer Homepages und Tweets). Thematische Karten erweitern topologische Karten um semantische Information über die Themen, die die Teilnehmer zu bestimmten Plätzen ‘mitbringen’. Soziale Karten stellen darüber hinaus Information darüber bereit, wer wen kennt und wer wen wann wo gesprochen hat.

CIDA – Computational Intelligence & Data Analytics

November 2017 bis April 2020

CIDA

Das Schwerpunktprogramm “Computational Intelligence & Data Analytics” adressiert die Frage, wie Wissen aus Daten gewonnen werden kann. Methoden hierfür kommen aus sehr unterschiedlichen Bereichen des Maschinellen Lernens (ML) und der Datenanalyse. ML ermöglicht einen Daten-getriebenen Entwicklungsansatz von Systemen, der einen klassischen Modell-getriebenen Ansatz heute mehr und mehr ergänzt oder teilweise auch ersetzt. Das heißt, Daten werden analysiert, Modelle werden mit Daten parametrisiert, und neue Arten von Anwendungen werden entwickelt. Dies geschieht in recht unterschiedlichen Domänen wie beispielsweise Energiesysteme, Mobilität, Industrie 4.0, Internet of Things, Marketing, Qualitätskontrolle, Prozesssteuerung. Ein erfolgreicher Einsatz von Methoden des ML erfordert zum einen den sorgfältigen und systematischen Umgang mit diesen Methoden und zum anderen fachliche Kreativität, also die Fähigkeit, selbstständig Innovation zu generieren. Beides ist ohne praktische Erfahrung nicht möglich.

Generelles Ziel dieses Projekts war es, Studierende in die Lage zu versetzen, selbstständig Entwicklungs- und Erkenntnisprozesse im Bereich ML zu durchlaufen. Zu einer Reihe grundlegender bzw. weiterführender Vorlesungen und Übungen wurden dazu Labore und – in Kooperation mit der Industrie und Forschungsinstituten – Projekte und Abschlussarbeiten angeboten. Speziell in den Laboren sollten Studierende den Schritt von der intensiv betreuten Bearbeitung einfacher vorgegebener praktischer Fragestellungen hin zum selbständigen Arbeiten an Projekten, denen eigene Ideen zugrunde liegen, üben. Ziel des CIDA-Projekts war der Aufbau (Inhalte, Unterrichtsmaterialien, Hardware) der Labore, neuer rechnerunterstützter Übungen zu Vorlesungen, sowie eines Einstiegskurses, der Studierende zu Beginn des Masterstudiums auf denselben Wissensstand bringt.

WISKIDZ – Wissenschaftliche Karrieredynamiken in Deutschland im Zeitablauf

Oktober 2013 bis September 2016

Verlängerung: September 2016 bis August 2019

Das Projekt untersucht, wie Promotion und wissenschaftliche Qualifikation nach der Promotionsphase die individuellen Karriereverläufe von Nachwuchswissenschaftlern beeinflussen, insbesondere wenn diese eine Tätigkeit außerhalb der Hochschule bzw. der öffentlichen Forschung annehmen. Dabei wird auch untersucht, welche Unterschiede zwischen Fächern und Veränderungen sich im Zeitablauf feststellen lassen.

Das Fachgebiet Wissensverarbeitung hat hierfür mit der BibSonomy Genealogy einen DoktorandInnenstammbaum für deutsche WissenschaftlerInnen erstellt. Es basiert auf den Dissertationsmetadaten der Deutschen Nationalbibliothek und erlaubt es den WissenschaftlerInnen, die eigenen Daten selbst zu kuratieren.

Gefördert durch das Bundesministerium für Bildung und Forschung in der Förderlinie „FoWiN“ [16FWN001]: Forschung zum Wissenschaftlichen Nachwuchs.

CIL – Collaborative Interactive Learning

Februar 2017 bis Juni 2019

CIL

Technische Systeme lösen computerunterstützt immer komplexere Aufgaben. Während diese Systeme früher für bestimmte Aufgaben und Einsatzbedingungen entworfen wurden und zur Laufzeit auf diese Aufgaben und Bedingungen beschränkt waren, sind sie heute in der Lage, sich an neue Situationen anzupassen, von Beobachtungen zu lernen und sich selbst zu optimieren. Aus diesem Grund werden sie häufig als “smart” oder “intelligent”bezeichnet. Zukünftig wird es mehr und mehr Anwendungen geben, wo auch für selbst-lernende Systeme zur Entwurfszeit nicht mehr alle Daten bereitgestellt werden können, die sie zum Lernen benötigen, und wo eine simple Adaption (z. B. von Parametern) zur Laufzeit nicht ausreicht. Gründe hierfür sind z. B. die benötigte Datenmenge, der zur Beschaffung erforderliche Zeitaufwand oder finanzielle Kosten und insbesondere die Tatsache, dass diese Systeme zur Laufzeit mit Situationen konfrontiert werden, die zur Entwurfszeit nicht bekannt waren (vielleicht sogar in ihrer Art grundsätzlich nicht bekannt sein konnten). Benötigt wird daher eine ganz neue Art “smarter” Systeme mit lebenslanger Lernfähigkeit (entsprechend der gesamten Nutzungsdauer des Systems) in unsicheren und zeitvariaten (veränderlichen) Umgebungen. Diese Systeme müssen hochgradig autonom agieren, indem sie ihr eigenes Wissen bewerten, sich selbständig Informationsquellen (Menschen, andere Systeme, Internet etc.) beschaffen bzw. sich mit ihnen verbinden, Informationen anderer bewerten (z. B. hinsichtlich Aktualität) und dabei unterschiedliche maschinelle Lernverfahren nutzen (z. B. Collaborative Learning oder Active Learning).

Ziel des Projekts war die Erforschung einer Klasse grundlegend neuer Technologien zur Entwicklung oben skizzierter Systeme, die wir als Collaborative Interactive Learning (CIL) bezeichnen. Diese maschinellen Lernverfahren sind “kollaborativ“ in dem Sinn, dass mehrere Systeme untereinander und mit Menschen kooperieren, um gemeinsam Probleme zu lösen (auch solche, die alleine nicht gelöst werden können). Sie sind auch “interaktiv”, da es aktiv angeregten und geregelten Wissens- und Informationsfluss nicht nur zwischen diesen technischen Systemen, sondern auch zwischen Systemen und Menschen in unterschiedlicher Weise geben wird. Weiter unterscheiden wir bei CIL eine dedizierte ( dedicated, D-CIL ) und eine opportunistische Variante ( opportunistic, O-CIL ). Bei D-CIL sind Lernprozess, Aufgabe und beteiligte Gruppe von Menschen und Systemen klar definiert. Bei O-CIL sind sie Aufgaben variabel und Gruppen für heterogene Teilnehmer offen; die Systeme nutzen alle Informationsquellen, auch wenn diese sehr ungenau und vielleicht nur sporadisch verfügbar sind. Die leitende wissenschaftliche Fragestellung des Projekts ist somit definiert durch die Notwendigkeit, für CIL (bzw. D-CIL und O-CIL) völlig neuartige Konzepte, Technologien und Mechanismen in mehreren Wissenschaftsbereichen zu entwickeln und zu erforschen. Potentielle Anwendungen von D-CIL bzw. O-CIL wurden in vielen Bereichen identifiziert: voneinander lernende cyber-physische Systeme, Teams von autonomen Robotern, kooperierende autonome Fahrzeuge, verteilte Systeme zur Angriffserkennung in Rechnernetzen, Gestaltung von Zusammenarbeitsmechanismen zur Lösung von Aufgaben unter Einsatz von Mechanismen des Collaboration Engineering, Crowdsourcing zur Nutzung der Expertise einer undefinierten Masse von Menschen etc.

Das Projekt „Grundlagen Kollaboratives Interaktives Lernen“ wurde durch das Förderprogramm zur weiteren Profilbildung in der Universität Kassel 2017 bis 2022 – Programmline „Zukunft“ durch die Universität Kassel gefördert.

FEE – Frühzeitige Erkennung und Entscheidungsunterstützung für kritische Situationen im Produktionsumfeld: Entwicklung von Assistenzfunktionen zur Unterstützung von Anlagenbedienern in kritischen Situation

September 2014 bis August 2017

FEE

Ein moderner hoher Automatisierungsgrad von Produktionsanlagen erlaubt einen wirtschaftlichen Betrieb auch in Hochlohnländern wie Deutschland. Sie reduziert aber die Prozesserfahrung der Bediener und kann in kritischen Situationen zur Informationsüberflutung (sog. Alarmschauer) führen. Bei Kontrollverlust können Menschenleben und Umwelt gefährdet werden und großen Schäden an Vermögensgütern sowie teure Produktionsausfälle folgen. Ziel des BMBF-Forschungsprojekts FEE war es daher, kritische Situationen im Produktionsumfeld frühzeitig zu erkennen und durch die Entwicklung von Assistenzfunktionen zur Unterstützung von Anlagenbedienern in kritischen Situation Entscheidungsunterstützung zu geben. Dazu wurden mittels der in den Anlagen vorliegenden heterogenen Massendaten geeignete Big-Data-Echtzeit-Methoden entwickelt, um den Bediener frühzeitig zu warnen, mit Assistenzfunktionen und Eingriffsstrategien gezielt zu unterstützen, und proaktives statt reaktives Handeln zu ermöglichen.

PUMA – Akademisches Publikationsmanagement

August 2009 bis Juli 2011

März 2013 bis Februar 2015

PUMA

Auch wenn der Open-Access-Gedanke von vielen Wissenschaftlern als unterstützenswert betrachtet wird, scheitert die konkrete Einstellung von Inhalten in Institutional Repositories (IR) oft daran, dass – aus Sicht der Autoren – dem Aufwand der Dateneingabe kein unmittelbarer Nutzen gegenübersteht. In diesem DFG-Projekt wurde daher die IR-Eingabe in die Arbeitsabläufe des Wissenschaftlers integriert, der im gleichen Schritt die erstellte Publikation in den universitären Forschungsbericht einstellen, die Publikationsliste auf seiner Homepage aktualisieren und den Eintrag in ein kooperatives Literaturverwaltungssystem übernehmen kann.

Die Eingabe wird außerdem dadurch unterstützt, dass Metadaten aus unterschiedlichen Datenquellen (Sherpa-Romeo-Liste, OPAC, Bibliotheksverbünde, kooperative Literaturverwaltungssysteme) zum Eingabezeitpunkt automatisch zusammengetragen und dem Benutzer angeboten werden. Für diese Integration wurde im Projekt eine eindeutige digitale Autor-Identifikation (DAI) eingeführt. Die PUMA-Plattform wurde exemplarisch für die Open Access Repository-Plattform DSpace entwickelt und an das Bibliothekssystem PICA sowie das kooperative Literaturverwaltungssystem BibSonomy angebunden. Das System ist offen für die Anpassung „out of the box“ an andere gängige IR-Software, Hochschulforschungsberichte und Hochschulbibliografien. Die Ergebnisse wurden anderen Bibliotheken als Open Source-Software zur Verfügung gestellt.

EveryAware – Enhance Environmental Awareness through Social Information Technologies

März 2011 bis Februar 2014

EveryAware

Das europäische FET-Open-Projekt EveryAware hatte sich zum Ziel gesetzt, die Umweltwahrnehmung und das Umweltbewusstseinzu schärfen und somit das Verhalten der Mensch zu verändern. Hierzu wurde eine neue Plattform entwickelt, die Sensortechnologien, Netzanwendungen und Datenverarbeitungswerkzeuge integriert. Sie ermöglicht es Bürgern, mit Hilfe ihrer Smartphones die Umweltbedingungen ihrer persönlichen Umgebung zu erfassen und zentral auf einem Server zu sammeln. Das erste Experiment beschäftigt sich mit Lärmverschmutzung; während in nachfolgenden Projekten Luftverschmutzung und Radioaktivität angegangen werden.

In EveryAware wurden Methoden für Echtzeit-Analysen von Sensordaten und von subjektiven Meinungen entwickelt, die es erlauben, den Bürgern direktes Feedback zu geben. In dem Projekt wurden darüber hinaus sowohl empirisch als auch theoretisch die Prozesse der Meinungsbildung und –dynamik und ihr Einfluss auf Verhaltensänderungen untersucht.

VENUS – Gestaltung technisch-sozialer Vernetzung in situativen ubiquitären Systemen

Januar 2010 bis Dezember 2013

VENUS

Die persönliche Lebensgestaltung ist heute von IT-Anwendungen durchdrungen. Das Internet gehört bereits zum Alltag vieler Menschen; das mobile Internet wird uns in den nächsten Jahren an praktisch jedem Ort Zugang zu Informationen und Diensten bieten. Die technische Vernetzung hat das Wesen unserer sozialen Netze bereits stark beeinflusst und wird sie weiterhin um neue Formen der Kommunikation und Interaktion bereichern. Kurz: Ubiquitäre Informationsverarbeitung (Ubiquitous Computing) verwebt die Computer immer stärker mit unserer alltäglichen Lebensumgebung. Die Systeme der nächsten Generation werden mit Sensoren den jeweiligen Anwendungskontext erfassen und so ihre Dienste an die jeweilige Situation anpassen können. Außerdem werden sie spontan mit anderen ubiquitären Diensten in ihrer Umgebung interagieren. Es entsteht damit eine ganz neue Art der vernetzten Informationsverarbeitung, die sowohl in technischer Hinsicht wie auch in Hinsicht auf den menschlichen Benutzer und seine Vernetzung mit anderen gestaltet werden muss. Von Interesse sind hier vor allem die Gebrauchstauglichkeit der Systeme, das Vertrauen der Benutzer in die technikvermittelten Austauschbeziehungen, die erforderlichen rechtlichen Randbedingungen sowie ökonomisch nachhaltige Geschäfts-, Service- und Betreibermodelle. Die Technik muss in das Handeln des einzelnen Benutzers eingebettet sein, d.h. ihn bei der Bewältigung seiner Arbeitsaufgaben und bei der Kooperation mit anderen unterstützen, indem sie die Aufgaben, Präferenzen und Intentionen des Benutzers kennt oder aus seinem Kontext erkennt und sich in ihren Dienstleistungen an diese anpasst. Für ihre Nutzung in der Praxis benötigt die neue Technik darüber hinaus eine Einbettung in die Gesellschaft. Da sie ihre Leistungen überall, jederzeit und vernetzt erbringen soll, wird sie damit eine starke Wirkung auf die soziale Vernetzung und Vergesellschaftung ausüben. Sie muss den Zielen der Gesellschaft, die diese sich für ihr Zusammenleben selbst gesetzt hat, entsprechen. Dies beinhaltet vor allem, dass sie rechtliche Vorgaben erfüllt. Die neue Technik erfordert schließlich eine gelungene Einbettung in die Wirtschaft; sie muss in geeignete Geschäfts-, Service- und Betreibermodelle eingebettet sein. Dass diese Einbettungen gelingen, ist ein entscheidender Erfolgsfaktor für die neue Technik. Um diese Erfolgsfaktoren bereits bei der Entwicklung der Technik zu berücksichtigen, ist eine systematische Entwicklungsmethodik erforderlich, die den besonderen funktionalen und nichtfunktionalen Anforderungen des Ubiquitous Computing Rechnung trägt. In VENUS haben sich drei Informatiker, ein Ergonom, ein Wirtschaftsinformatiker und ein Jurist zum Ziel gesetzt, eine disziplinenübergreifende Methodik für die Entwicklung und Evaluierung ubiquitärer adaptiver Anwendungen zu entwickeln und in einem gemeinsamen Labor für sozialverträgliche Technikgestaltung zu erproben. Dabei kam es entscheidend darauf an, die getrennte Modellierung der unterschiedlichen Entwurfsaspekte und Anforderungen der verschiedenen Disziplinen mit einer gemeinsamen Entwicklungsmethodik geeignet zu verbinden. VENUS baute hierbei auf den erwiesenen Stärken und interdisziplinären Erfahrungen der beteiligten Forschungsgruppen im Rahmen des „Forschungszentrums für Informationstechnik-Gestaltung (ITeG)“ auf.

Das langfristige Ziel von VENUS ist die Etablierung eines Forschungszentrums, in dem diese „Kasseler Entwicklungsmethodik“ zur disziplinenübergreifenden Gestaltung ubiquitärer adaptiver Systeme im Mittelpunkt steht. Hierzu wird in VENUS die Beantragung eines DFG-Sonderforschungsbereichs vorbereitet, der aus dem ITEG heraus getragen wird.

Commune – Entdeckung von Interessengruppen in kooperativen Verschlagwortungssystemen

Januar 2010 bis Juni 2011

Juli 2011 bis Februar 2013

Commune

Mit dem Wandel zur Informationsgesellschaft ist der Umfang der zur Verfügung stehenden Informationen exponentiell gewachsen und stellt alte Konzepte in Frage. Der Archetyp des “Allwissenden” ist abgelöst worden vom Archetyp des “Schnellfindenden”. An Schulen und Universitäten hat sich das Prinzip “Man muss nicht alles wissen, man muss nur wissen wo es steht” durchgesetzt, was sich im umgangsprachlichen Gebrauch darauf reduziert, nach einer Information zu “googlen”. Dies führt zu einem zentralen Problem: Es stehen zu viele Informationen zur Verfügung, als dass ein Einzelner diese überschauen könnte. Deshalb muss vor der eigentlichen Sichtung und Wahrnehmung von Informationen eine Vorauswahl und Vorsortierung stehen. Im schlimmsten Fall geschieht diese Vorauswahl intransparent und zentral, so dass z.B. politisch motivierte Zensur möglich wird (etwa die Google-Zensur in China). Im sogenannten “Web 2.0” werden demokratische Prinzipien auf die Informationsbereitstellung und Informationsbeschaffung angewendet. Jeder Einzelne kann Wissen darstellen, bewerten und Verschlagworten. Dies führt zu einer Vielzahl von neuen Problemen. So wird z.B. ein Soziologe mit ganz anderen Erwartungen nach dem Schlagwort “Migration” suchen als ein Informatiker, und die Bewertung des einen wird irrelevant oder sogar irreführend sein für den anderen. Eine solche Unterscheidung nach Interessen hängt nicht nur vom Beruf ab. So vielfältig eine Gesellschaft ist, so vielfältig sind auch die in ihr vertretenen Interessensgruppen. Definiert man eine Interessensgruppe lediglich über die gemeinsam generierten, bewerteten und “konsumierten” Informationen, lassen sich technische Verfahren entwickeln, die solche Gruppen automatisiert erkennen und somit eine neue, interessensgewichtete Sicht auf die Wissensbasis ermöglichen. Selbst Randgruppen, deren Präferenzen sonst im statistischen Mittelwert als Ausreißer untergehen, können so berücksichtigt werden. Der Lehrstuhl Wissensverarbeitung betreibt seit einigen Jahren BibSonomy, ein System zur gemeinschaftlichen Verwaltung von Literatur und Lesezeichen im Internet. Vorwiegend von Wissenschaftlern und Studenten genutzt, unterstützt dieses System Forschung und Lehre bei der Informationsbereitstellung und -beschaffung. Viele Verfahren zur Auswertung und Nutzung des so dargestellten Wissens wurden entwickelt und finden auch bereits Anwendung. Als nächstes sollen neue Verfahren zur automatischen Erkennung von Interessensgruppen entwickelt und getestet werden. Diese werden insbesondere eine neue Sicht auf die Literatursammlung von BibSonomy ermöglichen, aber so allgemein sein, dass Sie an vielen anderen Stellen verwendet werden können. Damit werden Forschung und Lehre auf eine breitere Basis gestellt, da der Bewertung von fachbezogener Literatur durch die Literaturliste eines einzelnen Lehrenden die Bewertung der entsprechenden (fachlichen) Interessensgruppe gegenübersteht. Ein Student, der sich in ein neues, für ihn fremdes Fachgebiet einarbeiten will, kann – unterstützt durch die Interessensgruppe – gezielt nach entsprechender Literatur suchen.

In dem Forschungsvorhaben wurden Algorithmen für die Entdeckung von Interessensgruppen in sozialen Verschlagwortungssystemen entwickelt und evaluiert. Hierzu war es nötig, existierende Verfahren auf die neuartigen Datenstrukturen zu übertragen bzw. neue Verfahren zu entwerfen. Die verschiedenen Verfahren mussten objektiv evaluiert werden. Da für kooperative Verschlagwortungssysteme keine Benchmarkdatensätze existieren, mussten hierfür geeignete Qualitätsmaße entwickelt werden. Das Verfahren, das sich in der Evaluierung als das beste herausgestellt hat, wurde dann in BibSonomy implementiert und dort unter Praxisbedingungen erprobt.

Informationelle Selbstbestimmung im Web 2.0

April 2009 bis September 2010

Oktober 2010 bis September 2012

INFO 2.0

Die neue Generation des Internets („Web 2.0“ oder „soziales Internet“) zeichnet sich durch eine sehr freizügige Informationsbereitstellung durch die Nutzer aus. Vor diesem Hintergrund ist es das Ziel dieses DFG-Projektes, in enger Interaktion von Informatikern und Juristen die Chancen und Risiken der neuen Web2.0-Technologien in einem ausgewählten Szenario zu erkunden und zu gestalten.

Nach Bestandsaufnahme und mittelfristiger Szenarienbildung wurden im Projekt die technischen und rechtlichen Chancen und Risiken bezogen auf typisierte Rollen analysiert. Generische Konzepte für die datenschutzgerechte Gestaltung der Anwendungen (Identitätsmanagement, Vermeidung von Personenbezug und Profilbildung, Verantwortlichkeiten) wurden erarbeitet. Parallel dazu wurden Algorithmen und Verfahren für zwei spezifische Aufgaben entwickelt, die diese Konzepte respektieren: Recommender-Systeme für kooperative Verschlagwortungssysteme sowie Spam-Entdeckungsverfahren für solche Systeme. Sie wurden anhand realer Daten evaluiert. Die erfolgreichsten Ansätze wurden in das kooperative Publikationsverwaltungssystem BibSonomy implementiert und dort im laufenden Betrieb evaluiert. Schließlich wurde analysiert, inwieweit Dogmatik und Auslegung des Datenschutzrechts wegen der neuen Problemlagen des Web 2.0 verändert werden muss und eventuell gesetzgeberische Aktivitäten erforderlich oder ratsam sind.

Webzubi – Ein Web2.0-Netzwerk zur Gestaltung innovativer Berufsausbildung für gewerblich-technische Auszubildende

April 2009 bis März 2012

Entwicklung von Ontologielernverfahren und Evaluierung der Webzubi-Lernplattform

Das Web 2.0 bietet sehr gute Chancen für eine Verbesserung der Ausbildung durch Nutzung interaktiver Kommunikations- und Lernplattformen. Bisher werden die Elemente des Web 2.0 jedoch noch nicht in der Ausbildung der Projektpartner genutzt. Zur Steigerung der Motivation und damit der Qualität der Ausbildung von gewerblich-technischen Auszubildenden wurde deshalb eine neue Web 2.0-Plattform erstellt. Zielgruppe sind gewerblich-technische Auszubildende der DB Mobility Logistics AG und der beteiligten Kooperationspartner. Insgesamt werden mit dem Pilotprojekt mehr als 3.000 gewerblich-technische Auszubildende erreicht. Die Auszubildenden werden mittels Web 2.0-Technologien auf die zunehmende Verzahnung im Berufsleben vorbereitet. Aufgabe der Universität Kassel im BMBF-finanzierten Webzubi-Projekt war die Entwicklung von semantisch basierten Navigations- und Empfehlungskomponenten.

Industrieprojekt mit K+S IT-Services GmbH

März 2005 bis Dezember 2012

Untersuchung und Anwendung von Suchmaschinen bei K+S IT-Services GmbH

TAGora – Semiotic Dynamics in Online Social Communities

Juni 2006 bis August 2009

Im Mittelpunkt des EU-Projektes TAGora steht die Untersuchung von Web2.0-Applikationen, welche es den Benutzern ermöglichen, benutzerspezifische Inhalte selber zu gestalten.

Durch die Abbildung sozialer Strukturen im Internet entstehen neuartige Benutzerstrukturen, welche sich von bisher untersuchten Datenmodellen unterscheiden. Aspekte sind hierbei die Entstehung von semiotischen Beziehungen und deren Entwicklung über die Zeit. Für die Erforschung und Entwicklung von Ansätzen und Lösungen von Modellen und Analysemethoden erfolgte die Zusammenarbeit im interdisziplinären Kontext. Forschungspartner hierbei waren: University of Roma (La Sapienza), Sony CSL, University of Koblenz-Landau und University of Southampton.

NEPOMUK – Networked Environment for Personalized, Ontology-based Management of Unified Knowledge

Januar 2006 bis Dezember 2008

Als Mitglied des Forschungszentrums L3S Hannover nahmen wir am EU-Projekt NEPOMUK teil. Ziel des Projektes war die Erweiterung des Computer-Desktops um semantische Fähigkeiten, um die Zusammenarbeit und den Austausch von Informationen innerhalb und zwischen Arbeitsgruppen zu verbessern. Der “Social Semantic Desktop” vereint Fähigkeiten des Semantic Web mit denen der Social Network Analysis (SNA).

In dem Projekt hat sich das Fachgebiet Wissensverarbeitung insbesondere mit der Entdeckung und Strukturierung von Communities befasst und dabei Verfahren der sozialen Netzwerkanalyse untersucht und weiterentwickelt. So wurden Beziehungen zwischen Benutzern, Ressourcen und Metadaten zur Erkennung von Be-nutzern mit ähnlichen Interessen genutzt, um den Austausch von Wissen auch zwischen einander unbekannten Nutzern zu fördern. Die während des Projekts entwickelte Implementierung ist frei verfügbar und erreichte eine hohe Sichtbarkeit, u.a. auf heise online und im Technology Review.

Microsoft Social Search

Juni 2006 bis Mai 2007

Microsoft Social Search

Folksonomien ermöglichen eine individuelle Kategorisierung des eigenen Wissens durch die Zuordnung von Schlüsselbegriffen (Tags) zu relevanten Ressourcen (z.B. Urls) und zugleich eine kollektive Nutzung der gesammelten Daten. Trotz der richtunggebenden Funktion von Tags, die zur Navigation und Orientierung in der Datenmenge genutzt werden können, bietet eine gezielte Suche wie sie von den herkömmlichen Suchmaschinen für das World Wide Web bekannt ist, eine sinnvolle Ergänzung/Erweiterung für die Informationsfindung. Aus diesem Grund untersuchte das Projekt, das durch eine Forschungsprämie von Microsoft Research unterstützt wurde, die Anwendung und Fortentwicklung auf Linkpopularität basierender Verfahren auf die tripartite Struktur der Folksonomie.

KDubiq – Knowledge Discovery in Ubiquitous Environments

Dezember 2005 bis Mai 2008

KDubiq war eine EU-geförderte Coordination Action für ubiquitäre Wissensverarbeitung. Dr. Andreas Hotho leitete die Arbeitsgruppe „Ubiquitous Data Types“, in der die Ähnlichkeiten von Daten, die von Sensor-Netzen erzeugt werden, und von Daten, die aus sozialer Interaktion im Web 2.0 entstehen, im Hinblick auf die Wissensentdeckung untersucht wurde.

PROLEARN – Technology Enhanced Professional Learning

April 2004 bis Dezember 2007

Das Network of Excellence PROLEARN wurde im Programm IST (Information Society Technology) der Europäischen Kommission gefördert und befasste sich mit professionellem, technologiegestützten Lernen. Das Ziel dieses Netzwerks war es, die wichtigsten Forschungsgruppen, Organisationen und Industriepartner im Bereich des Lernens und der Weiterbildung zusammenzubringen, um so die bestehende Lücke zwischen Forschung und Praxis in diesem Bereich zu verringern. PROLEARN zielte darauf ab, die Forschungsergebnisse in diesem Bereich auf europäischer Ebene besser zu integrieren. Dazu wurden Kooperationen zwischen verschiedenen Beteiligten in Forschung und Anwendung initiiert und vertieft. Das Fachgebiet Wissensverarbeitung engagierte sich in dem Arbeitspaket Social Software und stellte mit BibSonomy eine Plattform für die Sammlung und Verwaltung von projektrelevanten Publikationen zur Verfügung.

COMO – COncepts and MOdels

Dezember 2005 bis November 2007

Das Projekt COMO war eine deutsch-russische Kooperation zur Untersuchung begrifflicher und modelltheoretischer Strukturen in der Wissensverarbeitung. Dabei sollten Ansätze zu einer begrifflichen Restrukturierung der Logik im Hinblick auf praktische Verwertbarkeit mit den modelltheoretischen Bestrebungen verknüpft werden, um offene Probleme im Bereich der pragmatischen Verwendung aktueller mathematisch-logischer Theorien lösen zu können.

Von besonderer Bedeutung sind dabei einerseits die praktischen Kommunikationsprobleme, die mit der Verwendung unterschiedlicher Semantiken (Ontologien) zusammenhängen. Andererseits sollen mit den in der begrifflichen Systemtheorie erarbeiteten allgemeinen Begriffsbildungen Granularitätsprobleme bei Systembeschreibungen in Verbindung mit modalen und temporalen Logiken untersucht werden.

PADLR – Personalized Access to Distributed Learning Resources

April 2001 bis Februar 2005

Förderung durch BMBF und MWK Niedersachsen

Das Fachgebiet Wissensverarbeitung der Universität Kassel bearbeitete im Rahmen seiner Mitgliedschaft im Forschungszentrum L3S ein Modul des Projektes Personalized Access to Distributed Learning Resources (PADLR), den Courseware Watchdog. Dieser dient dazu, Lehrmaterialien im WWW oder im Peer-to-Peer-Netz Edutella zu finden und dem Benutzer zu präsentieren. Mit Hilfe eines ontologiebasierten fokussierten Webcrawlers und durch Integration in Edutella kann Material gesammelt werden. Subjektives Clustering erweitert bekannte Algorithmen mit ontologiebasiertem Hintergrundwissen und erlaubt so die Beschreibung von Präferenzen und Erzeugung subjektiver Sichten. Eine Visualisierung basierend auf formaler Begriffsanalyse bietet intelligentes Browsing. Strategien zur Ontologie-Evolution erlauben es, Veränderungen im Interessengebiet des Lernenden in der Ontologie zu reflektieren.

KDNet – Knowledge Discovery Network of Excellence

Februar 2002 bis Dezember 2004

KDNet war ein offenes Netzwerk von Teilnehmern aus Wissenschaft, Industrie und Verwaltung. Der Hauptzweck dieses internationalen Projekts war die Integration von Problemen aus dem Geschäftsalltag in Forschungsdiskussionen und die Zusammenarbeit im Hinblick auf die Zukunft von Knowledge Discovery und Data Mining. Das Projekt wurde als Network of Excellence von der Europäischen Kommission im 5. Rahmenprogramm gefördert.