Ai.vatar - der virtuelle intelligente Assistent
Projektübersicht
Ai.vatar steht für die Entwicklung eines intelligenten, menschenähnlichen Avatars für den universellen und kostengünstigen Einsatz in einem virtuellen Umfeld. Ai.vatar ist das Produkt aus sprachgesteuerten Bot-Systemen und animierten, interaktiven digitalen Menschenmodellen.
Mit Hilfe von Head Mounted Displays kann Ai.vatar in virtuellen Umwelten mit Menschen interagieren, mit dem Ziel eine empathische und kongruente Interaktionsbasis zu erschaffen. Der Mensch findet mit Ai.vatar seinen virtuellen Ansprechpartner für spezifische Anwendungsfelder. Ergebnis der Einbettung des Ai.vatar in eine virtuelle Umgebung im Zusammenspiel mit responsiven Interaktionsmöglichkeiten ist, dass sich physische und digitale Welten nicht mehr gegenüberstehen, sondern miteinander interagieren.
Das Forschungsprojekt widmet sich in dieser Rahmung der Frage nach einer plausiblen und konstruktiven Mensch-Maschine-Interaktion. Der sozio- und psychologisch fundierte Forschungsansatz untersucht anhand qualitativer und quantitativer Methoden die Minimalanforderung an visuelle-körperliche Präsenz des virtuellen Agenten, sowie die Wahrnehmung künstlich intelligent generierter Dialogflows in interaktiven Kontexten.
Weitere Informationen
- Laufzeit: 2020 – 2022
- Förderung: Als eines von elf Projekten wurde „Ai.vatar – der virtuelle intelligente Assistent“ im Rahmen des Leitmarktwettbewerbs IKT.NRW gefördert. Die Fördermittel stammen aus dem Europäischen Fonds für Regionale Entwicklung (EFRE) und vom Land NRW.
- Verantwortlich: Lehrstuhl für Soziologie
- Wissenschaftliche Mitarbeitende: Alexandra de Carvalho, Nele Kost
Ausgewählte Publikationen
- Harth, Jonathan (2025): Nonverbale Interaktionsmuster in Mixed Reality: Videographische Analysen von Human-Agent-Interactions. In: Wilke, René; Knoblauch, Hubert (Hrsg.): Audio-visuelle Daten in der empirischen qualitativen Sozialforschung. (Im Erscheinen)
- Harth, Jonathan (2025): Mixed Reality – Das Versprechen der Verschmelzung physischer und virtueller Wirklichkeit. In: Heidrun Friese, Marcus Nolden, Miriam Schreiter-Deike (Hrsg.): Handbuch Soziale Praktiken und Digitale Alltagswelten, Springer. https://doi.org/10.1007/978-3-658-08460-8_88-1
- Harth, Jonathan (2024): Mixed Reality Videography. Analyzing Joint Behavior of Human-Agent-Interactions in Extended Realities. In: Computers in Human Behavior: Artificial Humans, Vol 2(1), 100063. https://doi.org/10.1016/j.chbah.2024.100063
- Harth, Jonathan; Hofmann, Alexandra (2021): Mixed Reality Analysis of Multimodal Human-Agent Interaction. CHI 2021. Download: https://sputze.github.io/evaluating-mr/paper/#mixed-reality-methods-for-analysis-of-multimodal-human-agent-interactions
Projektleitung
Dr.
Jonathan Harth
Wissenschaftlicher Mitarbeiter
Fakultät für Gesundheit (Department für Humanmedizin) | Lehrstuhl für Soziologie
Alfred-Herrhausen-Straße 50
58448 WittenRaumnummer: 2.328