@inbook{61322,
  author       = {{Lazarov, Stefan Teodorov and Tchappi, Igor and Grimminger, Angela}},
  booktitle    = {{Social Explainable AI}},
  editor       = {{Rohlfing, Katharina J. and Främling, Kary and Alpsancar, Suzana and Thommes, Kirsten and Lim, Brian Y.}},
  pages        = {{367--390}},
  publisher    = {{Springer}},
  title        = {{{Characteristics of nonverbal behavior}}},
  doi          = {{10.1007/978-981-96-5290-7_19}},
  year         = {{2026}},
}

@unpublished{61151,
  abstract     = {{In this paper, we discuss the application of retrospective video recall for the assessment of cognitive processes in explanatory interactions, such as understanding and mental models. Our purpose is to reflect on the benefits and limitations of video recall compared to another self-report method, ‘thinking-aloud’. To do so, we reveal empirical results from the application of video recall in three interdisciplinary research projects that applied the method for the qualitative and quantitative assessment of cognitive and behavioral phenomena in everyday explanations. In all three projects, video recall was applied as a post-hoc procedure following the recording of dyadic face-to-face explanations of board games. The design of the video recall procedure differed between individual projects because they pursued different research objectives – that is the investigation of (1) an interlocutor's multimodal signals of understanding, (2) the change in assumptions about an interlocutor's dispositional and situational knowledge, and (3) the differentiated assessment of an interlocutor's developing understanding of domain knowledge aspects by distinguishing between mechanistic and functional explanatory stances. By discussing the benefits and the limitations of each procedure, this article provides critical reflections on video recall as a versatile research method applied for the analysis of human multimodal behavior in interaction and cognitive processing.}},
  author       = {{Lazarov, Stefan Teodorov and Schaffer, Michael and Gladow, Viviane and Buschmeier, Hendrik and Buhl, Heike M. and Grimminger, Angela}},
  pages        = {{29}},
  title        = {{{Retrospective video recall for analyzing cognitive processes in naturalistic explanations}}},
  year         = {{2026}},
}

@inproceedings{61154,
  author       = {{Türk, Olcay and Lazarov, Stefan Teodorov and Buschmeier, Hendrik and Wagner, Petra and Grimminger, Angela}},
  booktitle    = {{LingCologne 2025 – Book of Abstracts}},
  location     = {{Cologne, Germany}},
  pages        = {{36}},
  title        = {{{Acoustic detection of false positive backchannels of understanding in explanations}}},
  year         = {{2025}},
}

@misc{61429,
  author       = {{Buschmeier, Hendrik and Grimminger, Angela and Wagner, Petra and Lazarov, Stefan Teodorov and Türk, Olcay and Wang, Yu}},
  publisher    = {{LibreCat University}},
  title        = {{{MUNDEX Annotations}}},
  doi          = {{10.5281/ZENODO.17129817}},
  year         = {{2025}},
}

@phdthesis{62748,
  abstract     = {{Erklärungen spielen eine zentrale Rolle in alltäglichen persönlichen Gesprächen, indem sie den Wissensaustausch fördern, Ideen klären und das Verständnis unterstützen. In solchen Gesprächen versuchen die Erklärenden (d. h. die sachkundigere Person), das Verständnis der Explainees (d. h. die Person, die eine Erklärung erhält) durch Interaktionsprozesse wie Monitoring, Scaffolding und gemeinsame Konstruktion zu verbessern (Buschmeier et al., 2023; Rohlfing et al., 2021). Während gemeinsame Konstruktionen aus dem bidirektionalen (non-)verbalen Austausch zwischen den Gesprächspartnern entstehen, bezeichnet Scaffolding den Prozess, durch den die Erklärenden eine Erklärung anpassen, indem sie unterschiedliche Verhaltensweisen als Reaktion auf das Verhalten der Explainees einsetzen, welches deren kognitive Verarbeitung signalisiert (Wood et al., 1976). Monitoring bezeichnet einen kontinuierlichen Prozess, in dem die Gesprächspartner auf Wahrnehmungssignale wie (non-)verbale Verhaltensweisen achten, um Hinweise auf (Miss-)Verständnisse zu erkennen und zu interpretieren (Clark &amp; Krych, 2004).In der vorliegenden Arbeit berichte ich über fünf Studien zu dyadischen Erklärungen zwischen Menschen und diskutiere anhand empirischer Befunde die Interaktionsdynamiken, die bestimmten Formen verbalen und nonverbalen Erklärungsverhaltens zugrunde liegen. Zu diesem Zweck analysierte ich in den vorgestellten Studien Daten aus zwei Videokorpora zu verschiedenen Bereichen alltäglicher Erklärungen, beispielsweise medizinischen Erklärungen und Brettspielerklärungen. Das Korpus zu medizinischen Erklärungen umfasst elf naturalistische Interaktionen zwischen Ärzten und Bezugspersonen über eine bevorstehende chirurgische Operation von Kindern. Das Korpus zu Brettspielerklärungen besteht aus 87 dyadischen Brettspielerklärungen, von denen eine Teilstichprobe von 24 Interaktionen in den vorgestellten Studien spezifisch untersucht wurde.Um das verbale Erklärungsverhalten zu untersuchen, analysierte ich in zwei Studien, die sich mit medizinischen Erklärungen und Brettspielerklärungen befassten, den Zusammenhang zwischen Themenwechseln in Erklärungen und dem multimodalen Verhalten der Explainees, das von den Erklärenden beobachtet wurde. Die Analyse medizinischer Erklärungen legt nahe, dass der Wechsel von Elaborationen zu neuen Themen mit dem multimodalen Verhalten der Explainees einhergeht, welches Blickabwendung, Kopfnicken und verbale Rückkopplung umfasst. Der Wechsel zu Elaborationen hingegen ist mit einer anhaltenden Blickrichtung verbunden, unabhängig davon, ob zusätzliche Signale vorhanden sind oder nicht (Lazarov et al., 2024). Eine nachfolgende Studie zu Brettspielerklärungen (Lazarov &amp; Grimminger, in Begutachtung) erweiterte diese Analyse durch die Einbeziehung des Blickverhaltens der Erklärenden. Die Studie untersuchte den Zusammenhang zwischen gegenseitigem Blickkontakt und Blickabwendung mit der Einleitung neuer Themen. Die Ergebnisse bestätigten die Ergebnisse aus dem medizinischen Kontext: Blickabwendungen der Explainees gehen Themenwechseln häufiger voraus als gegenseitiger Blickkontakt, was mit früheren Forschungsergebnissen von Rossano (2012, 2013) übereinstimmt. Die Analyse untersuchte zudem den Zusammenhang zwischen dem / der Gesprächspartner:in, der / die Blickabwendungen initiierte, und dem / der Gesprächspartner:in, der / die Themenwechsel initiierte.Um das nonverbale Erklärungsverhalten zu untersuchen, analysierte ich die Verwendung von sprachbegleitenden Gesten von verschiedenen Erklärenden in drei Studien zu Brettspielerklärungen, in denen das zu erklärende Objekt im gemeinsamen Referenzraum physisch nicht vorhanden war. Obwohl diese Abwesenheit ein fortwährendes Bedürfnis nach der Etablierung gemeinsamer imaginärer Räume impliziert (Kang et al., 2015; Kinalzik &amp; Heller, 2021), beispielsweise durch kontinuierliches Zeigen auf unsichtbare Orte, zeigte die Studie von Lazarov &amp; Grimminger (2025), dass Gestenikonizität und zeitliche Hervorhebung auch in Themen zu Objekteigenschaften, Handlungsprozessen und bedingten Regeln variabel auftreten.Motiviert durch die kontinuierliche Verwendung von der gestischen Deixis während der physischen Abwesenheit des Explanandums erforschten die letzten zwei Studien den kognitiven Mechanismus der Anpassung des Gebrauchs deiktischer Gesten in Bezug auf die Beobachtung des Verständnisses der Explainees. Unabhängig davon, ob die Erklärenden das Verständnis der Explainees in einer retrospektiven Video Recall Aufgabe interpretierten (Lazarov &amp; Grimminger, 2024a) oder die verbalen Verständnissignale der Explainees wahrnahmen (Lazarov &amp; Grimminger, 2024b), zeigten die Analysen, dass die Häufigkeit der gestischen Deixis während der Erklärungsphase, in der das Explanandum nicht im gemeinsamen Raum vorhanden war, stabil blieb. Zu den Ergebnissen der in dieser Dissertation präsentierten Studien diskutiere ich, wie die kontinuierliche Beobachtung des Feedbackverhaltens der Explainees Anpassungen sowohl im verbalen als auch im nonverbalen Erklärungsverhalten erläutern kann. Darüber hinaus verdeutlichen die von mir präsentierten Studien das Ausmaß der individuellen Variation innerhalb und zwischen den Erklärenden, von denen jeder / jede mit drei verschiedenen Explainees interagierte.}},
  author       = {{Lazarov, Stefan Teodorov}},
  pages        = {{167}},
  publisher    = {{Universitätsbibliothek Paderborn}},
  title        = {{{The reflection of interactional monitoring in the dynamics of verbal and nonverbal forms of explaining}}},
  doi          = {{10.17619/UNIPB/1-2446}},
  year         = {{2025}},
}

@article{61156,
  abstract     = {{Explainability has become an important topic in computer science and artificial intelligence, leading to a subfield called Explainable Artificial Intelligence (XAI). The goal of providing or seeking explanations is to achieve (better) ‘understanding’ on the part of the explainee. However, what it means to ‘understand’ is still not clearly defined, and the concept itself is rarely the subject of scientific investigation. This conceptual article aims to present a model of forms of understanding for XAI-explanations and beyond. From an interdisciplinary perspective bringing together computer science, linguistics, sociology, philosophy and psychology, a definition of understanding and its forms, assessment, and dynamics during the process of giving everyday explanations are explored. Two types of understanding are considered as possible outcomes of explanations, namely enabledness, ‘knowing how’ to do or decide something, and comprehension, ‘knowing that’ – both in different degrees (from shallow to deep). Explanations regularly start with shallow understanding in a specific domain and can lead to deep comprehension and enabledness of the explanandum, which we see as a prerequisite for human users to gain agency. In this process, the increase of comprehension and enabledness are highly interdependent. Against the background of this systematization, special challenges of understanding in XAI are discussed.}},
  author       = {{Buschmeier, Hendrik and Buhl, Heike M. and Kern, Friederike and Grimminger, Angela and Beierling, Helen and Fisher, Josephine Beryl and Groß, André and Horwath, Ilona and Klowait, Nils and Lazarov, Stefan Teodorov and Lenke, Michael and Lohmer, Vivien and Rohlfing, Katharina and Scharlau, Ingrid and Singh, Amit and Terfloth, Lutz and Vollmer, Anna-Lisa and Wang, Yu and Wilmes, Annedore and Wrede, Britta}},
  journal      = {{Cognitive Systems Research}},
  keywords     = {{understanding, explaining, explanations, explainable, AI, interdisciplinarity, comprehension, enabledness, agency}},
  title        = {{{Forms of Understanding for XAI-Explanations}}},
  doi          = {{10.1016/j.cogsys.2025.101419}},
  volume       = {{94}},
  year         = {{2025}},
}

@inproceedings{57204,
  abstract     = {{In this study on the use of gesture deixis during explanations, a sample of 24 videorecorded dyadic interactions of a board game explanation was analyzed. The relation between the use of gesture deixis by different explainers and their interpretation of explainees' understanding was investigated. In addition, we describe explainers' intra-individual variations related to their interactions with three different explainees consecutively. While we did not find a relation between interpretations of explainees' complete understanding and a decrease in explainers' use of gesture deixis, we demonstrated that the overall use of gesture deixis is related to the process of interactional monitoring and the attendance of a different explainee.}},
  author       = {{Lazarov, Stefan Teodorov and Grimminger, Angela}},
  booktitle    = {{Proceedings of the Annual Meeting of the Cognitive Science Society}},
  keywords     = {{explanation, gesture deixis, monitoring, understanding}},
  location     = {{Rotterdam}},
  title        = {{{Variations in explainers’ gesture deixis in explanations related to the monitoring of explainees’ understanding}}},
  volume       = {{46}},
  year         = {{2024}},
}

@article{59888,
  abstract     = {{Everyday explanations are interactive processes with the aim to provide a less knowledgeable person with reasonable information about other people, objects, or events. Because explanations are interactive communicative processes, the topical structure of an explanation may vary dynamically depending on the immediate feedback of the explainee. In this paper, we analyse topical transitions in medical explanations organised by different physicians (explainers) related to different forms of multimodal behaviour of caregivers (explainees) attending an explanation about the procedures of
an upcoming surgery of a child. The analyses reveal that explainees’ multimodal behaviour with gaze shifts (and particularly gaze aversion) can predict a transition from an elaborated topic to a new one, whereas explainees’ forms of multimodal behaviour with static gaze cannot be related to changes of the topical structure.}},
  author       = {{Lazarov, Stefan Teodorov and Biermeier, Kai and Grimminger, Angela}},
  issn         = {{1572-0381}},
  journal      = {{Interaction Studies}},
  keywords     = {{explanations, multimodal behaviour, elaborations, conditional probabilities}},
  number       = {{3}},
  pages        = {{257 -- 280}},
  publisher    = {{John Benjamins}},
  title        = {{{Changes in the topical structure of explanations are related to explainees’ multimodal behaviour}}},
  doi          = {{10.1075/is.23033.laz}},
  volume       = {{25}},
  year         = {{2024}},
}

@inproceedings{55912,
  abstract     = {{In explanatory interactions, explainees are expected to continuously provide feedback to explainers by signaling whether they understand an ongoing explanation. The study presented in this paper is based on the hypothesis that explainees use a set of multimodal cues, including vocalizations, facial expressions, and movements of the torso, head, and hands, to do so. We test this hypothesis by building a random forest classifier based on a multimodal corpus of dyadic explanations (21 explainers and explainees), in which windows of understanding or non-understanding were identified by participants in a retrospective video recall task. Results show that sequences of understanding can indeed be differentiated from those of non-understanding, and that a diverse set of predictors covering a wide range of modalities contributes to this classification. Due to data sparsity and a high degree of individual variation, the generalizability of our results is currently limited, but they support our hypothesis of the relevance of multimodal display in explanatory interactions.}},
  author       = {{Türk, Olcay and Lazarov, Stefan Teodorov and Wang, Yu and Buschmeier, Hendrik and Grimminger, Angela and Wagner, Petra}},
  booktitle    = {{Proceedings of the 26th ACM International Conference on Multimodal Interaction}},
  location     = {{San José, Costa Rica}},
  pages        = {{449--458}},
  title        = {{{Predictability of understanding in explanatory interactions based on multimodal cues}}},
  doi          = {{10.1145/3678957.3685741}},
  year         = {{2024}},
}

@inproceedings{57058,
  author       = {{Lazarov, Stefan Teodorov and Schaffer, Michael and Ronoh, Erick Kiprop}},
  location     = {{Paderborn}},
  title        = {{{Approaches of Assessing Understanding Using Video-Recall Data}}},
  year         = {{2023}},
}

