Ich bin Doktorand im SFB TRR318 “Constructing Explainability”, einem Sonderforschungsbereich der Universitäten Paderborn und Bielefeld. Ich werde von Prof. Dr. Katharina J. Rohlfing betreut, mit Prof. Dr.-Ing. Britta Wrede als Co-PI im Teilprojekt A05. Vor meiner Tätigkeit im SFB habe ich meinen Master in Kognitionswissenschaft abgeschlossen.
Ich interessiere mich an die Untersuchung multimodale Vehaltens in Menschen sowie in künstlichen Agenten. Dies ist durch das Ziel motiviert, Erklärungsprozesse besser zu verstehen. Daraus entsteht die Kernidee meiner Forschung: die Verbindung von XAI-Methoden mit interpretierbaren kognitiven bzw. neurosymbolischen Modellen, um bessere Erklärungen zu ermöglichen.
Damit gehe ich über den isolierten Einsatz „kognitiv agnostischer“ klassischer XAI-Methoden (z. B. LIME/SHAP, kontrastive Erklärungen) hinaus und verfolge stattdessen die Einbettung von XAI in Theorien und kognitionsbasierte Modelle der (Sprach-)Verarbeitung.
Methodisch untersuche ich menschlich-menschliches Erklären mit Eyetracking und psycholinguistischen Experimenten.
Für Human-AI-Teaming arbeite ich mit Foundation Models (Prompting, Feature-Extraktion, Fine-Tuning), Human-Robot-Interaction und statistischer Modellierung (vor allem Bayesianisch), um Erklärungspraktiken zu quantifizieren.
Aktuelles
Ein paar aktuelle Einblicke in meine Arbeit:
Das Open-Access-Buch zu Social Explainable AI (sXAI) ist nun erschienen.Lesen
Ich freue mich sehr, mit einem Kapitel zu Explanation Goals zu diesem Band beigetragen zu haben.Link
TeaP 2026, Tübingen
Vor Kurzem habe ich meine Arbeit auf der TeaP 2026 in Tübingen vorgestellt. Zum Abstract
IEEE ICDL 2025, Prag
Auf der IEEE ICDL 2025 in Prag habe ich einen Vortrag zur Sprach- und Visionsinteraktion in dialogischer Mensch-Roboter-Interaktion gehalten. Vortrag auf YouTube ansehen
WinGaze
Außerdem habe ich WinGaze entwickelt, ein Tool zur Exploration multimodaler Interaktion in der HRI. Auf GitHub ansehen 
