---
res:
  bibo_abstract:
  - Diese Dissertation untersucht, wie Menschen Entscheidungen in Interaktionen sowohl
    mit anderen Personen als auch mit zunehmend verbreiteten algorithmischen Systemen
    treffen. Unter Einbezug von Erkenntnissen aus der Verhaltensökonomie und der Mensch-Maschine-Interaktion
    wird analysiert, wie kognitive Limitationen, soziale Präferenzen und Wahrnehmungsverzerrungen
    das Verhalten in Kontexten von Unehrlichkeit, Empfehlungsumsetzung, Feedbackverarbeitung
    und Selbsteinschätzung prägen. Vier kontrollierte ökonomische Experimente zeigen,
    dass algorithmische Intransparenz unehrliches Verhalten verstärken kann, die Einbindung
    von Nutzern in das Training von KI-Systemen zwar deren Wahrnehmung verbessert,
    jedoch nicht die tatsächliche Befolgung algorithmischer Ratschläge fördert, dass
    Echtzeit-Feedback in Human-in-the-Loop-Systemen unbeabsichtigt Verhaltensverzerrungen
    verstärken kann und dass gängige Messungen von Selbstüberschätzung stark von methodischen
    Designentscheidungen abhängen. Die Dissertation unterstreicht die Notwendigkeit,
    realistische Annahmen über menschliches Verhalten bei der Gestaltung von Prüfungsprozessen,
    Empfehlungssystemen und interaktiven Technologien zu berücksichtigen und leistet
    damit einen Beitrag zu einem besseren Verständnis menschlicher Entscheidungsprozesse
    in einer zunehmend automatisierten Welt.@eng
  - This dissertation investigates how humans make decisions in interactions with
    both other people and increasingly prevalent algorithmic systems. Integrating
    insights from behavioral economics and human-machine interaction, it examines
    how cognitive limitations, social preferences, and perceptual biases shape behavior
    in contexts involving dishonesty, advice-taking, feedback, and self-assessment.
    Across four controlled economic experiments, the studies show that algorithmic
    opacity can increase dishonest behavior, user involvement in AI training improves
    perceptions but not actual adherence to algorithmic advice, real-time feedback
    in human-in-the-loop systems can unintentionally amplify behavioral biases, and
    common measures of overconfidence are sensitive to methodological design. The
    dissertation underscores the need to incorporate realistic behavioral assumptions
    when designing verification processes, advisory algorithms, and interactive technologies,
    contributing to a deeper understanding of human decision-making in an increasingly
    automated world.@eng
  bibo_authorlist:
  - foaf_Person:
      foaf_givenName: Marius
      foaf_name: Protte, Marius
      foaf_surname: Protte
  bibo_doi: 10.17619/UNIPB/1-2448
  dct_date: 2025^xs_gYear
  dct_language: eng
  dct_publisher: LibreCat University@
  dct_title: Behavioral effects in human-machine and human-human interactions@
...
