Silhouette Universität Witten/Herdecke
Aktuelles
Nachricht vom 14.01.2020
UniversitätKulturGesundheit

Universität Witten/Herdecke erhält Förderung für virtuelles Zukunftsprojekt

Florian Klein (HHVISION), Martin Hennrich (HHVISION), Prof. Dr. Werner Vogd (UW/H), Dr. Jonathan Harth (UW/H), Robert Jänisch (IOX), Alexandra Hofmann (UW/H), Prof. Dr. Andreas Pinkwart (MWIDE)

v.l.: Florian Klein (HHVISION), Martin Hennrich (HHVISION), Prof. Dr. Werner Vogd (UW/H), Dr. Jonathan Harth (UW/H), Robert Jänisch (IOX), Alexandra Hofmann (UW/H), Prof. Dr. Andreas Pinkwart (MWIDE). Foto: MWIDE NRW / M.Hermenau

Projektteam (v.l.): Prof. Dr. Werner Vogd, Sophia Bermond, Alexandra Hofmann, Dr. Jonathan Harth, Hannah Cramer

Projektteam (v.l.): Prof. Dr. Werner Vogd, Sophia Bermond, Alexandra Hofmann, Dr. Jonathan Harth, Hannah Cramer

0 / 0

Universität Witten/Herdecke erhält Förderung für virtuelles Zukunftsprojekt

Ziel von „Ai.vatar“ ist es, einen künstlich intelligenten und visuell ansprechenden virtuellen Avatar zu konstruieren und zu erforschen.

Als eines von elf Projekten wird „Ai.vatar – der virtuelle intelligente Assistent“ der Universität Witten/Herdecke (UW/H) im Rahmen des Leitmarktwettbewerbs IKT.NRW gefördert. Nach der feierlichen Übergabe des Förderbescheids im Ministerium für Wirtschaft, Innovation, Digitalisierung und Energie des Landes Nordrhein-Westfalen beginnt nun die dreijährige Projektlaufzeit. Ziel ist es, gemeinsam mit zwei Industriepartnern – HHVision aus Köln und dem Innovationsunternehmen IOX aus Düsseldorf – einen künstlich intelligenten und visuell ansprechenden virtuellen Avatar zu konstruieren und erforschen. Die Fördermittel stammen aus dem Europäischen Fonds für Regionale Entwicklung (EFRE) und vom Land NRW.

„Wir verknüpfen hochqualitativ eingescannte menschliche Modelle, state-of-the-art Motion- und Face-Capturing sowie ein intelligentes Bot Management System miteinander. Laien können sich das so vorstellen, als würde man ein Assistenz-System wie Siri oder Alexa mit einem Körper versehen, der in einer virtuellen Umgebung menschenähnlich erscheinen kann“, erläutert Projektleiter Dr. Jonathan Harth von der UW/H.

Die anthropomorphe Darstellung, die natürlichen Bewegungsabläufe und die überzeugende Kommunikations- und Wahrnehmungsfähigkeit der Testversion sollen eine einfache und effiziente Interaktion mit künstlicher Intelligenz möglich machen. Das bedeutet: Nutzerinnen und Nutzer können mithilfe einer Virtual Reality-Brille in eine virtuelle Umgebung eintauchen, in der ihnen dieser spezielle Avatar begegnet. Mit diesem können sie dann interagieren. Dabei soll der Avatar auf die Impulse des Nutzers reagieren – und ihn in einer Lernumgebung beispielsweise korrigieren und leiten. Die neutral gehaltene Konzeption als Schnittstelle zielt darauf ab, das Avatar-System in unterschiedlichen Branchen und gesellschaftlichen Bereichen einsetzbar zu machen. „Der Ai.vatar kann vielerlei Funktionen übernehmen, beispielsweise als Tutor oder Coach, als Dialog- oder Sparringpartner“, so Harth weiter.

Aufgabe der UW/H wird es sein, die Konstruktion des Avatars durch qualitative und quantitative Forschung zu begleiten. Hier werden einzelne Komponenten des virtuellen Agenten wie Mimik, Gestik, Sprachausgabe und Interaktion getestet mit dem Ziel, funktionale Muster direkt in den Prototypen einbauen zu können.

„Für eine Akzeptanz dieser Assistenzsysteme müssen sie eine soziale Kompetenz besitzen und ein plausibles Verhalten aufzeigen können“, sagt die zweite Projektleiterin Alexandra Hofmann. „Damit ermöglicht uns das Projekt, viele Fragen im Bereich der virtuellen Interaktion zu stellen und so wichtige Grundlagen im Bereich Mensch-Maschine-Interaktion wissenschaftlich zu erforschen. Obwohl der Ai.vatar in spezifischen Umgebungen eingesetzt wird, müssen wir zunächst herausarbeiten, welche virtuell-physischen und interaktionellen Faktoren für unterschiedliche Nutzergruppen ein Verbindungspotenzial schaffen.“

Der zentrale Meilenstein des Projekts besteht aus der technischen Schnittstelle aller Komponenten des virtuellen Agenten. „Neben der anthropomorphen Darstellung, den natürlichen Bewegungsabläufen und den elaborierten Wahrnehmungs- und Kommunikationsfähigkeiten sollen diese intelligenten Assistenten durch ihre lebensnahen und sympathischen Interaktions- und Verhaltensweisen ein positives Erlebnis und Vertrauen beim Nutzer schaffen“, so Jonathan Harth. „Auf diese Weise ermöglicht das System plausible, intuitive und effiziente Interaktionen. Um ein glaubhaftes Verhalten zu gewährleisten, muss der virtuelle Charakter autonom Entscheidungen treffen können und entsprechende Interaktions-Schnittstellen besitzen, um auf die menschlichen Anwender reagieren zu können.“

Alexandra Hofmann und Jonathan Harth, die durch ihre Hintergründe psychologische und soziologische Forschung miteinander verbinden können, sehen den Mehrwert ihrer Arbeit langfristig auch außerhalb des Projektes: „Die Gesellschaft wird zunehmend digitaler und virtueller. Virtuelle Interaktion ermöglicht langfristig Menschen die Teilhabe an Wissen, Unterstützung und Unterhaltung – unabhängig davon, wo sie sich physisch aufhalten. Virtuelle Interaktion ist barrierefrei und umweltfreundlich. Wenn es uns gelingt, einen Grundstein für virtuelle Interaktion zu legen, können wir uns gesellschaftlich relevanten Bereichen widmen, die sehr von einem virtuellen Avatar profitieren könnten. So könnte er psychotherapeutische Behandlungen unterstützen oder komplexe Lernabläufe in der Industrie vermitteln“, sagt Alexandra Hofmann.

Das Projekt Ai.vatar erhält für alle drei Partner 1,06 Millionen Euro aus EFRE sowie 0,54 Millionen Euro aus Landesmitteln und wird bis Ende 2022 gefördert.

Übersicht

Bereich:
UniversitätKulturGesundheit

Die Universität Witten/Herdecke ist durch das NRW-Wissenschaftsministerium unbefristet staatlich anerkannt und wird – sowohl als Institution wie auch für ihre einzelnen Studiengänge – regelmäßig akkreditiert durch: