Ich bin Doktorand im SFB TRR318 “Constructing Explainability”, einem Sonderforschungsbereich der Universitäten Paderborn und Bielefeld. Vor meiner Tätigkeit im SFB habe ich meinen Master in Kognitionswissenschaft abgeschlossen.

Ich interessiere mich an die Untersuchung multimodale Vehaltens in Menschen sowie in künstlichen Agenten. Dies ist durch das Ziel motiviert, Erklärungsprozesse besser zu verstehen. Daraus entsteht die Kernidee meiner Forschung: die Verbindung von XAI-Methoden mit interpretierbaren kognitiven bzw. neurosymbolischen Modellen, um bessere Erklärungen zu ermöglichen.

Damit gehe ich über den isolierten Einsatz „kognitiv agnostischer“ klassischer XAI-Methoden (z. B. LIME/SHAP, kontrastive Erklärungen) hinaus und verfolge stattdessen die Einbettung von XAI in Theorien und kognitionsbasierte Modelle der (Sprach-)Verarbeitung.

Methodisch untersuche ich menschlich-menschliches Erklären mit Eyetracking und psycholinguistischen Experimenten.

Für Human-AI-Teaming arbeite ich mit Foundation Models (Prompting, Feature-Extraktion, Fine-Tuning), Human-Robot-Interaction und statistischer Modellierung (vor allem Bayesianisch), um Erklärungspraktiken zu quantifizieren.

Ein Beispielszenario multimodaler Interaktion in HRI

Szenario aus Studien zu multimodaler Interaktion