Ich bin Doktorand im SFB TRR318 “Constructing Explainability”, einem Sonderforschungsbereich der Universitäten Paderborn und Bielefeld. Ich werde von Prof. Dr. Katharina J. Rohlfing betreut, mit Prof. Dr.-Ing. Britta Wrede als Co-PI im Teilprojekt A05. Vor meiner Tätigkeit im SFB habe ich meinen Master in Kognitionswissenschaft abgeschlossen.

Ich interessiere mich an die Untersuchung multimodale Vehaltens in Menschen sowie in künstlichen Agenten. Dies ist durch das Ziel motiviert, Erklärungsprozesse besser zu verstehen. Daraus entsteht die Kernidee meiner Forschung: die Verbindung von XAI-Methoden mit interpretierbaren kognitiven bzw. neurosymbolischen Modellen, um bessere Erklärungen zu ermöglichen.

Damit gehe ich über den isolierten Einsatz „kognitiv agnostischer“ klassischer XAI-Methoden (z. B. LIME/SHAP, kontrastive Erklärungen) hinaus und verfolge stattdessen die Einbettung von XAI in Theorien und kognitionsbasierte Modelle der (Sprach-)Verarbeitung.

Methodisch untersuche ich menschlich-menschliches Erklären mit Eyetracking und psycholinguistischen Experimenten.

Für Human-AI-Teaming arbeite ich mit Foundation Models (Prompting, Feature-Extraktion, Fine-Tuning), Human-Robot-Interaction und statistischer Modellierung (vor allem Bayesianisch), um Erklärungspraktiken zu quantifizieren.

Aktuelles

Ein paar aktuelle Einblicke in meine Arbeit:

Das Open-Access-Buch zu Social Explainable AI (sXAI) ist nun erschienen.Lesen

Ich freue mich sehr, mit einem Kapitel zu Explanation Goals zu diesem Band beigetragen zu haben.Link

TeaP 2026, Tübingen

Vor Kurzem habe ich meine Arbeit auf der TeaP 2026 in Tübingen vorgestellt. Zum Abstract

IEEE ICDL 2025, Prag

Auf der IEEE ICDL 2025 in Prag habe ich einen Vortrag zur Sprach- und Visionsinteraktion in dialogischer Mensch-Roboter-Interaktion gehalten. Vortrag auf YouTube ansehen

WinGaze

Außerdem habe ich WinGaze entwickelt, ein Tool zur Exploration multimodaler Interaktion in der HRI. Auf GitHub ansehen Szenario aus Studien zu multimodaler Interaktion