Forschungsbereiche
Stabilität von maschinellem Lernen
Wir untersuchen mathematische Modelle zur Beschreibung und Analyse von gezielten Angriffen auf künstliche Intelligenz. Hierbei gibt es starke Bezüge zu Regularisierungstechniken aus dem Bereich inverse Probleme sowie zu partiellen Differentialgleichungen und geometrischen Flüssen.
Partielle Differentialgleichungen auf Graphen
Graphen sind diskrete Strukturen, die aus einer Knotenmenge sowie gewichteten Kanten zwischen den Knoten bestehen. Hiermit lassen sich Probleme des halb-überwachten Lernens modellieren und analysieren. Wir arbeiten an Fragestellungen, die diese diskreten Modelle mit kontinuierlichen (typischerweise partielle Differentialgleichungen) in Verbindung setzen.
Optimierung
Wir arbeiten an verschiedenen Themen aus dem Bereich Optimierung, die relevant für maschinelles Lernen sind. Dies umfasst beispielsweise die Optimierung von spärlich besetzten Strukturen, um neuronale Netze mit einer möglichst geringen Anzahl von Parametern zu trainieren, oder auch die Optimierung mit Schwarmmethoden. Dies ist besonders dann von Interesse, wenn die zu optimierende Funktion nur als black box vorliegt, nicht oder nur teuer differenzierbar ist, oder sehr nicht-konvex ist.
Weitere Informationen zur Forschung, zur Lehre und zu unserem Team finden Sie über die Hauptseite unserer Arbeitsgruppe.